Dans Minority Report, le film de Steven Spielberg, la police se servait de mutants afin de prédire les crimes … avant que ces derniers n’aient lieu. Aujourd’hui, la réalité rattrape la fiction. Pour rappel, dans ce film, trois mutants prédisent les actes de criminalité dans une société spécialisée nommée Precrime. Ces derniers ont tout simplement la capacité de lire dans le futur. Ainsi, grâce à cette compétence unique, ils peuvent anticiper les actes illégaux et arrêter les coupables avant même que ces derniers n’aient commis un crime.
Pas de mutants mais de l’IA
Dans l’univers des GAFA (Google, Apple, Facebook et Amazon), il n’y a pas de mutants mais des IA. Malgré les utilisations douteuses effectuées de ces machines, les géants du web seraient parvenus à concevoir une conscience artificielle. Par rapport à ce sujet sensible, près de deux mille universitaires et experts des Nouvelles Technologie d’Information et de Communication, mais aussi des grandes organisations telles que par exemple Microsoft et Google, critiquent une étude qui va apparaître chez Springer, un éditeur de renom dans le domaine des sciences.
Cette dernière, s’inspirant du film Minority Report, va utiliser l’IA pour de la prédiction de crimes. La différence par rapport au film est qu’elle va utiliser un système de reconnaissance faciale. Un modèle d’algorithme a été pensé par des experts de l’Université de Harrisburg en Pennsylvanie. Ainsi, Springer (qui est situé en Allemagne) doit faire apparaître un document sur cette IA. Or, beaucoup de voix s’élèvent contre cela.
Usage de la reconnaissance faciale
Le logiciel automatisé de reconnaissance faciale aurait la capacité unique de prédire si une personne va devenir un criminel ou non. Or, le procédé peut évidemment paraître plus que douteux et de nombreuses failles sont mises en avant. En plus de cela, il y a aussi des dangers de dérives racistes. En effet, l’algorithme utilisé se baserait au fil du temps sur des stéréotypes raciaux. Ainsi, sur le site Medium, les opposants sont nombreux et les critiques se multiplient. Beaucoup comparent cette technologie à une sorte de laisser-passer. Ainsi, si vous plaisez à la machine, vous restez libres, alors que si c’est le contraire, vous allez directement en prison.
La polémique est évidemment attisée par la crise sociale mondiale, qui s’est embrasée avec le décès de George Floyd, étouffé par un policier fin mai. En plus de cela, utiliser des statistiques judiciaires pénales afin de prévoir les crimes ne permettrait en rien de calmer les tensions. C’est pourquoi la Coalition for Critical Technology fait la demande aux éditeurs scientifiques de ne rien publier par rapport à de telles études. Même si les machines utilisant l’intelligence artificielle ne sont pas racistes, elles contribuent à gonfler ces résultats discriminatoires. Une limite à corriger pour qu’une telle IA devienne vraiment fiable.
Les trois limites d’une telle technologie
La première limite est celle de la criminalité. En effet, une telle technologie se base de façon implicite sur un préjugé racial, dès l’instant où elle étudie un visage. De multiples études ont dévoilé que les individus de couleur subissent des traitements plus durs que les blancs, dans des contextes semblables, à de multiples paliers du système juridique. Ainsi, cela engendre de lourdes distorsions au niveau des données.
L’autre limite concerne l’apprentissage automatique, et par conséquent la fiabilité de l’intelligence artificielle. Même si le travail fourni par l’IA paraît rigoureux, l’intelligence artificielle passe à côté d’énormément de facteurs, qu’ils soient comportementaux, culturels ou encore linguistiques.
La troisième et dernière limite concerne la technologie de prévision criminelle. Cette dernière duplique les injustices qui n’ont encore même pas été commises. Cela engendre un vrai préjudice aux victimes d’un système judiciaire qui n’est pas exempt de tout reproche. Se pose donc également le souci de la vie privée vu que l’IA utilisera les agences de renseignements comme source d’informations, dans le but de prévenir les délits. Heureusement, cela reste uniquement de la littérature …