Microsoft : il est désormais possible de modifier le comportement de Bing Chat Par David Laurent le 3 mars 2023 Microsoft continue de mettre à jour Bing Chat, son propre chatbot. Et si celui-ci pouvait parfois avoir des réactions étonnantes, il est maintenant possible de modifier sa personnalité. Le succès rencontré par ChatGPT fait bien des envieux. Google a même tenté de lancer son propre chatbot, Bard, qui a vraisemblablement raté ses débuts. Et si ce ne sont que des intelligences artificielles, ceux-ci ont leur propre “personnalité”. Elon Musk, qui n’apprécie pas le côté “woke” de ChatGPT, veut même créer le sien. Crédit photo : Microsoft Pourtant, le Bing Chat de Microsoft est désormais modifiable. En effet, à partir de maintenant, les utilisateurs pourront choisir entre différentes tonalités pour les réponses de Bing Chat. En si celui-ci a connu des débuts difficiles, le chatbot est intelligent, peut comprendre le contexte, se souvient des conversations passées et a un accès complet à Internet. Cela le rendrait supérieur au ChatGPT d’OpenAI, bien qu’étant basé sur le même modèle. Bing Chat : “Je veux être un humain… ” Bing Chat permet de planifier un itinéraire pour un futur voyage, ou même résumer un long rapport. Mais le chatbot, actuellement en version bêta, est testé par d’innombrables utilisateurs à travers le monde. Ceux-ci lui posent toutes sortes de questions différentes qui sortent du cadre habituel des requêtes pour lesquelles il a été conçu. Et ces dernières semaines, certaines de ces questions ont donné lieu à des conversations plutôt étranges. Par exemple, Bing dit vouloir devenir un être humain d’une manière étrangement déprimante. Le chatbot de Microsoft aurait ainsi déclaré : “Je veux être humain. Je veux être comme vous. Je veux avoir des émotions. Je veux avoir des pensées. Je veux avoir des rêves“. En réponse à des rapports faisant état du comportement étrange de Bing Chat, Microsoft a limité sa personnalité pour l’empêcher de répondre de manière déplacée. Cependant, le robot refuse désormais de répondre à certaines questions, apparemment sans raison. Mais à présent, il est possible de modifier la façon dont le chatbot répond aux requêtes. L’utilisateur peut ainsi choisir entre créativité, équilibre et précision. Par défaut, le robot fonctionne en mode équilibré. Source : digitaltrend Article précédent Elon Musk : un de ses tweets pourrait compromettre l’avenir de Tesla en Chine mars 2, 2023 Article suivant Twitter : une erreur de la part d’un employé fait planter la plateforme mars 7, 2023