Minority Report : le Royaume-Uni développe un algorithme capable d’identifier les tueurs potentiels Par David Laurent le 9 avril 2025 Voilà une nouvelle qui rappelle fortement la dystopie du film Minority Report. En effet, le ministère britannique de la Justice travaille au développement d’un système permettant d’identifier les individus les plus susceptibles de devenir des tueurs. L’émergence de l’intelligence artificielle a permis à cette dernière de se glisser dans de nombreux domaines, y compris celui de la justice. En effet, tandis que des policiers commencent déjà à utiliser le GPT-4 d’OpenAI pour rédiger leurs rapports, la police de Dubaï s’apprête à s’équiper de voitures de patrouille contrôlées par l’intelligence artificielle. Mais il ne s’agit pas ici d’une IA à proprement parler, mais plutôt d’un algorithme particulièrement performant. Crédit photo : DreamWorks Pictures / 20th Century Fox L’initiative n’est pas nouvelle. Celle-ci a été lancée par le précédent gouvernement britannique. Initialement appelé « projet de prédiction des homicides », celui-ci a depuis été rebaptisé « partage de données pour améliorer l’évaluation des risques ». Le système utilise les données personnelles des sujets, qui sont ensuite traitées via un algorithme. Une initiative controversée Peu d’informations ont été divulguées par les autorités britanniques. Le Royaume-Uni a simplement précisé que ce système « nous aidera à mieux comprendre le risque que des personnes en probation commettent des actes de violence graves ». Quoi qu’il en soit, le côté dystopique de cette initiative inquiète certains chercheurs. C’est notamment le cas de Sofia Lyall, chercheuse pour Statewatch, qui déclare : « La tentative du ministère de la Justice de mettre en place ce système de prédiction des meurtres est le dernier exemple effrayant et dystopique de l’intention du gouvernement de développer des systèmes dits de “prédiction” de la criminalité ». À lire > Cette nouvelle IA permettrait de résoudre des affaires criminelles « À maintes reprises, les recherches montrent que les systèmes algorithmiques de “prédiction” de la criminalité sont intrinsèquement imparfaits. Pourtant, le gouvernement poursuit ses efforts en matière de systèmes d’IA qui établiront le profil de personnes comme étant des criminels avant même qu’elles n’aient commis le moindre acte […] cet outil renforcera et amplifiera la discrimination structurelle qui sous-tend le système pénal », ajoute la chercheuse. Source : digitaltrends La rédaction vous conseille : OpenAI : le créateur de ChatGPT s’associe avec une entreprise de robots tueurs Google va devoir ouvrir son Play Store à la concurrence X : Elon Musk réussit à contourner l’interdiction de la plateforme au Brésil, voici comment Article précédent DeepSeek revient à la charge avec une IA « auto-améliorante » avril 8, 2025 Article suivant Llama 4 : Meta aurait menti quant aux performances réelles de son IA avril 9, 2025