GPT-o1 : OpenAI pourrait bannir les utilisateurs qui lui posent trop de questions
La dernière IA d’OpenAI, GPT-o1, est supposée bénéficier d’un mode de raisonnement particulièrement poussé. Et pourtant, il semblerait que l’entreprise à l’origine du célèbre ChatGPT n’aime pas que ses utilisateurs lui posent des questions un peu trop « intimes ».
La semaine dernière, OpenAI dévoilait son nouveau modèle de langage, GPT-o1, aussi connu sous le nom de Strawberry. Celui-ci est supposé être encore plus intelligent que GPT-4, qui sera lui-même bientôt remplacé par GPT-5, qui aurait l’intelligence d’un doctorant. OpenAI affirme que GPT-o1 est capable d’apprendre de ses erreurs, ajoutant qu’il s’agit là du « début d’un nouveau paradigme ».
Particulièrement intelligent, GPT-o1 serait ainsi capable de raisonner à la manière d’un humain, en apprenant lui-même de ses erreurs. OpenAI affirme ainsi : « Il apprend à reconnaître et à corriger ses erreurs. Il apprend à décomposer les étapes délicates en étapes plus simples. Il apprend à essayer une approche différente lorsque l’approche actuelle ne fonctionne pas. »
OpenAI : certains utilisateurs pourraient perdre l’accès à ChatGPT
Mais gare aux utilisateurs qui seraient un peu trop curieux. En effet, OpenAI menacerait désormais de bannir les utilisateurs qui tentent d’amener GPT-o1 à révéler son mode de pensée.
Certains témoignages affirment ainsi que leurs demandes adressées à ChatGPT ont été signalées pour « tentative de contournement des mesures de protection ». L’entreprise mettrait donc en garde les utilisateurs concernés de la manière suivante : « D’autres violations de cette politique peuvent entraîner la perte de l’accès à GPT-4o with Reasoning ».
Certains utilisateurs indiquent que l’utilisation du terme « trace de raisonnement » (reasoning trace) leur a valu un avertissement. D’autres assurent que l’utilisation du simple mot « raisonnement » les a mis en difficulté. Cette répression semble ironique, quand on sait qu’OpenAI a largement mis en avant son raisonnement par « chaîne de pensée » qui permettait à l’IA d’articuler la façon dont elle était arrivée à une réponse, étape par étape.
Cette initiative a déplu à certains experts, tels que Simon Willison, chercheur en IA, qui écrit : « Je ne suis pas du tout satisfait de cette décision politique. En tant que développeur contre les LLM, l’interprétabilité et la transparence sont essentielles pour moi — l’idée que je puisse exécuter une invite complexe et que les détails clés de la façon dont cette invite a été évaluée me soient cachés me semble être un grand pas en arrière. »
Source : futurism