FRFAM.COM >> Science >> Technologie

C'est ainsi que vous vous rendez invisible aux caméras intelligentes

Des scientifiques de Louvain exposent les faiblesses des systèmes de détection intelligents.

Les systèmes de détection intelligents consistent en une caméra qui enregistre les images et un logiciel qui interprète automatiquement les images. Si vous leur montrez des images d'hommes et de femmes différents, après un certain temps, ils parviennent à identifier les gens en tant que personnes, même s'ils diffèrent tous par la taille, la couleur des cheveux et le visage. Ils peuvent également distinguer les personnes des objets, tels que les chaises.

Les systèmes sont extrêmement adaptés à la sécurité. Là où par le passé, les gardes devaient regarder les écrans pendant des heures pour identifier les suspects, les systèmes de détection intelligents émettent automatiquement un signal dès qu'un intrus arrive en vue des caméras, même lorsqu'il essaie de se cacher.

Malheureusement, les systèmes ne sont pas totalement infaillibles. Ils utilisent la reconnaissance des formes et ont parfois du mal à reconnaître les formes. Pour éliminer ces problèmes des systèmes, des chercheurs du monde entier tentent de tromper les systèmes de détection. Par exemple, ils ont précisé qu'une fausse lunette en carton peut suffire à complètement chambouler un système de reconnaissance faciale.

A Louvain, des chercheurs d'EAVISE (Embedded and Artificially Intelligent Vision Engineering) ont réussi à tromper YOLO, l'un des algorithmes les plus populaires pour identifier des objets et des personnes. L'étudiante à la maîtrise Simen Thys et la postdoctorante Wiebe Van Ranst ont tenu devant leur corps une pancarte en carton de 40 centimètres carrés, montrant une impression colorée conçue par l'intelligence artificielle. L'empreinte les rendait complètement invisibles au système :ils n'étaient pas reconnus comme des êtres humains, ni comme des objets. Lors de tests précédents dans lesquels les gens portaient un T-shirt avec l'image d'un oiseau, l'algorithme ne reconnaissait pas l'humain, mais l'oiseau.

Toon Goedemé, chef du groupe de recherche, confirme qu'il est impossible de déterminer exactement pourquoi le modèle YOLO a ouvert la voie, car les algorithmes utilisent des millions de paramètres. « Nous avons identifié une vulnérabilité et devons maintenant colmater la fuite. Dans ce cas, cela peut simplement être fait en apprenant à l'algorithme que les personnes tenant une pancarte avec ce motif sont également des personnes. Mais il peut y avoir d'autres schémas qui peuvent induire le système en erreur." Il est convaincu que les failles de sécurité ne seront jamais fermées, même si cela ne l'empêche pas de continuer à les détecter.


[]