OpenAI : l’entreprise hésite à sortir un détecteur de ChatGPT, voici pourquoi

OpenAI serait en train de développer un nouvel outil permettant de détecter les textes générés par ChatGPT. Pourtant, le porte-parole de l’entreprise vient d’émettre des doutes, et se demande si OpenAI doit réellement publier cette technologie.

Si l’intelligence artificielle peut se révéler particulièrement pratique, celle-ci peut également être utilisée de manière abusive. On pense notamment à BuzzFeed, qui a eu recours à l’IA afin de générer des guides de voyage d’une qualité pour le moins discutable. De son côté, le site Gizmodo a mis à la porte une partie de son personnel au profit de l’IA, pour un résultat catastrophique. Certains étudiants utilisent parfois l’IA pour gagner du temps, ce qui peut poser des problèmes d’égalité.

Crédit photo : Unsplash

Ainsi, afin de détecter l’IA, plusieurs outils ont vu le jour. On pense notamment à DetectGPT, qui était censé permettre de reconnaître les textes générés par ChatGPT. Toutefois, ce type d’outil n’a pas eu le succès escompté, la plupart d’entre eux ayant du mal à faire la distinction entre un texte rédigé par un humain et un texte généré par l’IA. D’ailleurs, OpenAI elle-même a mis fin à son propre logiciel de détection d’IA en raison de son « faible taux de précision ».

ChatGPT : l’IA peine à distinguer le vrai du faux

OpenAI n’a pas baissé les bras, et aurait continué à développer un nouvel outil de détection d’IA. Et pourtant, l’entreprise hésiterait à mettre sa création sur le marché. Le porte-parole d’OpenAI déclare ainsi : « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives, notamment la susceptibilité d’être contournée par de mauvais acteurs et la possibilité d’avoir un impact disproportionné sur des groupes tels que les non-anglophones ».

OpenAI précise toutefois que son logiciel s’est avéré « très précis et même efficace contre les altérations localisées, telles que la paraphrase », mais qu’il s’est révélé « moins robuste contre les altérations globales, telles que l’utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif, ou le fait de demander au modèle d’insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère ».

Source : techcrunch