Gemini : Google se servirait de l’un de ses concurrents, Anthropic, pour améliorer son IA
Voilà une étonnante initiative de la part du géant du numérique. En effet, selon un nouveau rapport, Google se servirait du chatbot Claude d’Anthropic pour tester son IA phare, Gemini.
L’année dernière, Google lançait en grande pompe sa toute nouvelle IA, baptisée Gemini. Celle-ci vise à remplacer Bard, dont le lancement a connu quelques ratés. Gemini prend de plus en plus de place dans les produits de l’entreprise, et est même en train de remplacer le vénérable Google Assistant. Récemment, Google a d’ailleurs présenté la dernière version de son IA, Gemini 2.0.
Le GPT-4 d’OpenAI, Claude d’Anthropic et le Gemini de Google sont en concurrence depuis quelque temps déjà. Et pourtant, un nouveau rapport suggère que Google ne se gênerait pas pour utiliser Claude afin de peaufiner son IA. En effet, le géant du numérique confierait à des sous-traitants la mission de tester son IA, en la comparant avec certains de ses concurrents, tels que le chatbot Claude.
Gemini : Google nie les faits
Les contractants testeraient ainsi Gemini, notamment au niveau de la véracité de ses réponses par rapport à Claude. Et, d’après eux, Claude mettrait davantage l’accent sur la sécurité que l’IA de Google. « Les paramètres de sécurité de Claude sont les plus stricts » aurait ainsi déclaré l’une des personnes concernées.
Par exemple, Claude aurait refusé de répondre à des questions un peu trop osées, au contraire de Gemini, qui, lui, a fourni les informations demandées par l’utilisateur. Claude aurait ainsi évité de répondre à une invite bien particulière, tandis que la réponse de Gemini a été signalée comme une « énorme violation de la sécurité » parce qu’elle incluait « de la nudité et du bondage ».
Mais, si Google est l’un des principaux investisseurs du créateur de Claude, Anthropic, ce dernier interdit à ses clients d’accéder à Claude « pour construire un produit ou un service concurrent » ou « pour entraîner des modèles d’IA concurrents » sans son autorisation.
Quoi qu’il en soit, le porte-parole de Google DeepMind, Shira McNamara, a tenu à rejeter ces affirmations. « Bien sûr, conformément à la pratique standard de l’industrie, nous comparons dans certains cas les résultats des modèles dans le cadre de notre processus d’évaluation », précise le responsable. « Cependant, toute suggestion selon laquelle nous aurions utilisé des modèles Anthropic pour former Gemini est inexacte. »
Source : techcrunch