Il n’y a pas si longtemps, pouvoir identifier de manière automatique les personnes qui transitaient par une rue, les suivre, tracer leurs mouvements et dépenses à travers leurs achats, connaître leurs états d’âme, leurs origines, leur genre, relevait de la science fiction. Cette technologie qui permet tout cela aux autorités, et pas uniquement, est parmi nous : nous rentrons dans l’ère Big Brother. Faut-il se cacher?
Rekognition est un outil de reconnaissance faciale en ligne qui fonctionne avec des vidéos et des photos et permettant aux utilisateurs de comparer les figures qui s’y trouvent à des personnes scannées au préalable dans une base de données.
L’outil donne un résultat exprimé en points de confiance (confidence score), c’est à dire la probabilité que l’identification soit correcte.
De plus, l’outil peut aussi être utilisé pour détecter le type de contenu, suggérer si le sujet en question est un homme ou une femme, déduire l’état d’âme de la personne et détecter s’il y a du texte et le transcrire pour analyse.
Mais tout n'est pas rose dans le monde de l'innovation.
Effectivement les groupes de défense de droits civils considèrent cet outil comme peut-être la technologie la plus dangereuse jamais développée au point que même des actionnaires d’Amazon, le créateur de Rekognition, ont demandé une halte aux ventes de l’outil.
Regardons de plus près cette situation.
Amazon recommande que les agences gouvernementales qui utilisent ce service le fassent seulement lorsque le pourcentage de confiance de 99% ou supérieur est atteint et qu’ils le fassent en toute transparence. Ceci ne semble pas être le cas, du moins aux Etats-Unis où différentes forces de police l’utilisent même contre des portraits robots de suspects et non pas des photos.
Mais la problématique ne s’arrête pas là, les algorithmes d’Amazon sont aussi au centre de la tourmente car ils sont considérés comme partiaux.
Concrètement, une étude du Massachussetts Institute of Technology (MIT) et l’Université de Toronto suggère que l’algorithme ne réagit pas de la même façon selon les genres et de races. Cette étude indique que Rekognition a 0% d’erreur lorsqu’il s’agit de classer des hommes à peau blanche, et de l’ordre de 30% d’erreurs à classer des femmes de couleur.
Pouvons-nous donc nous fier à ces résultats? L’utilisation de cette technologie doit-elle être réglementée et par qui, Amazon ou les Etats ? Le déploiement de la technologie dans les villes est-elle une intrusion dans la vie privée des citoyens?
En conclusion
L’utilisation de cette technologie soulève beaucoup de controverses, typiques lors de l’apparition de nouvelles inventions, il est donc impératif que les différents gouvernements mettent en place une réglementation (comme en Californie) pour assurer la liberté des citoyens et la bonne utilisation de l’outil.
iDNA, forte de son expérience en sécurité, aide ses clients à naviguer dans le monde des nouvelles technologies et leur impact dans la gouvernance, le respect des organismes régulateurs et la conformité en général.