GPT-o1 : OpenAI pourrait bannir les utilisateurs qui lui posent trop de questions Par David Laurent le 18 septembre 2024 La dernière IA d’OpenAI, GPT-o1, est supposée bénéficier d’un mode de raisonnement particulièrement poussé. Et pourtant, il semblerait que l’entreprise à l’origine du célèbre ChatGPT n’aime pas que ses utilisateurs lui posent des questions un peu trop « intimes ». La semaine dernière, OpenAI dévoilait son nouveau modèle de langage, GPT-o1, aussi connu sous le nom de Strawberry. Celui-ci est supposé être encore plus intelligent que GPT-4, qui sera lui-même bientôt remplacé par GPT-5, qui aurait l’intelligence d’un doctorant. OpenAI affirme que GPT-o1 est capable d’apprendre de ses erreurs, ajoutant qu’il s’agit là du « début d’un nouveau paradigme ». Crédit photo : Unsplash Particulièrement intelligent, GPT-o1 serait ainsi capable de raisonner à la manière d’un humain, en apprenant lui-même de ses erreurs. OpenAI affirme ainsi : « Il apprend à reconnaître et à corriger ses erreurs. Il apprend à décomposer les étapes délicates en étapes plus simples. Il apprend à essayer une approche différente lorsque l’approche actuelle ne fonctionne pas. » OpenAI : certains utilisateurs pourraient perdre l’accès à ChatGPT Mais gare aux utilisateurs qui seraient un peu trop curieux. En effet, OpenAI menacerait désormais de bannir les utilisateurs qui tentent d’amener GPT-o1 à révéler son mode de pensée. Certains témoignages affirment ainsi que leurs demandes adressées à ChatGPT ont été signalées pour « tentative de contournement des mesures de protection ». L’entreprise mettrait donc en garde les utilisateurs concernés de la manière suivante : « D’autres violations de cette politique peuvent entraîner la perte de l’accès à GPT-4o with Reasoning ». Certains utilisateurs indiquent que l’utilisation du terme « trace de raisonnement » (reasoning trace) leur a valu un avertissement. D’autres assurent que l’utilisation du simple mot « raisonnement » les a mis en difficulté. Cette répression semble ironique, quand on sait qu’OpenAI a largement mis en avant son raisonnement par « chaîne de pensée » qui permettait à l’IA d’articuler la façon dont elle était arrivée à une réponse, étape par étape. Cette initiative a déplu à certains experts, tels que Simon Willison, chercheur en IA, qui écrit : « Je ne suis pas du tout satisfait de cette décision politique. En tant que développeur contre les LLM, l’interprétabilité et la transparence sont essentielles pour moi — l’idée que je puisse exécuter une invite complexe et que les détails clés de la façon dont cette invite a été évaluée me soient cachés me semble être un grand pas en arrière. » Source : futurism La rédaction vous conseille : OpenAI : après GPT-4, l’entreprise pourrait proposer GPT-5 dès cet été OpenAI : le successeur de GPT-4o, GPT-5, serait aussi intelligent qu’un doctorant OpenAI dévoile GPT-o1, une IA encore plus puissante que GPT-4o Article précédent OpenAI dévoile GPT-o1, une IA encore plus puissante que GPT-4o septembre 13, 2024 Article suivant Discord : après WhatsApp et Telegram, l’application se lance dans les appels cryptés de bout en bout septembre 18, 2024