OpenAI commence à déployer sa voix hyperréaliste pour ChatGPT
Le créateur du célèbre ChatGPT commence à déployer sa technologie de voix particulièrement réaliste, que les utilisateurs ont pu apercevoir à l’occasion de la présentation de GPT-4o. La version alpha de cette technologie sera disponible pour un petit groupe d’utilisateurs de ChatGPT Plus dès aujourd’hui.
Depuis le succès mondial rencontré par ChatGPT, OpenAI n’en finit plus de proposer de nouveaux produits. L’entreprise a par exemple sorti GPT-4, et devrait bientôt proposer GPT-5, qui serait aussi intelligent qu’un doctorant. OpenAI s’attaque même à des géants tels que Google, en proposant son propre moteur de recherche, SearchGPT. Mais l’une des nouveautés qui a le plus impressionné le public est sans doute GPT-4o, qui a été vu en train de répondre vocalement à des questions d’une manière particulièrement réaliste.
En mai dernier, OpenAI présentait donc GPT-4o. Le public a été impressionné par le réalisme des voix proposées par l’IA, qui répondaient instantanément aux questions de l’utilisateur. L’une d’entre elles, baptisée Sky, ressemblait étrangement à la voix de Scarlett Johansson, qui a fini par engager un conseiller juridique pour défendre son image. L’actrice affirme d’ailleurs avoir refusé plusieurs demandes du PDG d’OpenAI, Sam Altman, d’utiliser sa voix.
Advanced Voice Mode : OpenAI joue la carte de la prudence
Pourtant, Lindsay McCallum, porte-parole d’OpenAI, affirme que « ChatGPT ne peut pas se faire passer pour la voix d’autres personnes, qu’il s’agisse d’individus ou de personnalités publiques, et bloquera les sorties qui diffèrent de l’une de ces voix prédéfinies ».
Si OpenAI a donc catégoriquement nié le fait d’avoir utilisé la voix de Scarlett Johansson, l’entreprise a finalement pris la décision de retirer cette dernière de GPT-4o. Puis, OpenAI a décidé de repousser la sortie de sa technologie Advanced Voice Mode afin d’en améliorer la sécurité. L’entreprise indique d’ailleurs qu’un rapport sur ces efforts de sécurité sera publié au début du mois d’août.
L’Advanced Voice Mode sera donc limité aux quatre voix prédéfinies de ChatGPT – Juniper, Breeze, Cove et Ember – créées en collaboration avec des acteurs vocaux rémunérés. OpenAI reste prudente et limite l’accès à l’alpha à un groupe réduit d’utilisateurs, afin d’en surveiller l’évolution. L’Advanced Voice Mode devrait être déployé à grande échelle dans un futur proche.
Source : techcrunch