Microsoft veut lutter contre les deepfakes générés par l’IA Par David Laurent le 31 juillet 2024 Si l’IA peut s’avérer particulièrement utile dans bon nombre de situations, elle peut également être utilisée à des fins malveillantes, tels que les deepfakes. Dans ce cadre, Microsoft demande au gouvernement américain d’établir un nouveau cadre juridique pour lutter contre les escroqueries et les abus générés par l’IA. La plupart de nos lecteurs connaissent bien les deepfakes, qui permettent d’incruster le visage d’une personne sur un corps qui n’est pas le sien, ou encore d’imiter une personne célèbre, lui faisant dire à peu près n’importe quoi. Tom Hanks a par exemple été victime d’un deepfake, le mettant en scène dans une fausse publicité pour du dentifrice. Et, si un vidéaste a pu décrocher un job chez Lucasfilm grâce à ses deepfakes réussis de Luke, Tarkin et Leia, il arrive parfois que cette technologie soit utilisée à des fins bien moins louables. Crédit photo : Unsplash Microsoft appelle donc les membres du Congrès à réglementer l’utilisation des deepfakes générés par l’IA. Le géant de l’informatique souhaite ainsi l’adoption d’une « loi sur les fraudes par imitation » qui offrirait aux autorités un cadre juridique leur permettant de poursuivre les escroqueries et les fraudes générées par l’IA. Microsoft : les deepfakes dans le viseur des autorités américaines Le vice-président et président de Microsoft, Brad Smith, déclare ainsi : « Alors que le secteur technologique et les groupes à but non lucratif ont pris des mesures récentes pour résoudre ce problème, il est devenu évident que nos lois devront également évoluer pour lutter contre la fraude par deepfake. L’une des choses les plus importantes que les États-Unis puissent faire est d’adopter une loi complète sur la fraude par deepfake afin d’empêcher les cybercriminels d’utiliser cette technologie pour voler les Américains de tous les jours ». Si Microsoft ne mentionne aucune entreprise en particulier, il ne faut pas oublier que le géant de l’informatique lui-même a été à l’origine de certains deepfakes. En effet, une faille dans le créateur d’images Designer AI de l’entreprise a permis à des personnes de créer des images explicites de célébrités telles que Taylor Swift. Le responsable ajoute : « Le secteur privé a la responsabilité d’innover et de mettre en œuvre des mesures de protection pour empêcher l’utilisation abusive de l’IA ». Source : theverge La rédaction vous conseille : Google va lutter contre l’utilisation abusive de l’IA OpenAI dissout son équipe chargée de lutter contre les risques liés à l’IA L’intelligence artificielle va nous aider à lutter contre les incendies, voici comment Article précédent OpenAI commence à déployer sa voix hyperréaliste pour ChatGPT juillet 31, 2024 Article suivant Google Maps et Waze : de nouvelles fonctionnalités bien pratiques arrivent août 1, 2024