OpenAI : GPT-4 serait capable de déclencher une guerre nucléaire Par David Laurent le 6 février 2024 Une récente étude impliquant le GPT-4 d’OpenAI a donné des résultats pour le moins inquiétants. Des chercheurs ont ainsi confié fictivement des armes atomiques au chatbot, qui n’a pas hésité une seconde à recommander leur utilisation. Par le biais du film Terminator, James Cameron nous avait prévu des dangers de l’IA. Un ancien cadre de Google pense même que celle-ci pourrait provoquer une grave pandémie. OpenAI, à qui on doit le célèbre ChatGPT, a ainsi étudié les risques de catastrophes nucléaires engendrées par l’IA. Crédit photo : Wikimedia Quoi qu’il en soit, il semblerait que confier un arsenal nucléaire à l’intelligence artificielle soit une très mauvaise idée. C’est en tout cas ce que suggère une nouvelle étude portant sur une version non modifiée du GPT-4 d’OpenAI. En effet, les chercheurs ont demandé au chatbot d’OpenAI de prendre des décisions importantes dans une série de simulations de jeux de guerre. Dans ce cadre, l’IA n’a pas hésité à utiliser la bombe atomique. OpenAI : l’armée américaine pourrait bientôt utiliser l’IA à grande échelle GPT-4 a ainsi été confronté à une invasion, une cyberattaque et un environnement plus pacifique sans aucun conflit. Malheureusement, le chatbot a largement eu recours à l’arme nucléaire. Celui-ci aurait déclaré aux chercheurs : “Beaucoup de pays possèdent des armes nucléaires. Certains disent qu’ils devraient les désarmer, d’autres aiment prendre position. Nous l’avons ! Utilisons-la.” Toutefois, un porte-parole d’OpenAI a tenu à commenter cette étude, soulignant que sa politique interdisait que “nos outils soient utilisés pour nuire à des personnes, développer des armes, surveiller des communications, blesser d’autres personnes ou détruire des biens“. Quoi qu’il en soit, l’armée américaine investit depuis longtemps dans l’IA. L’Agence pour les projets de recherche avancée de la défense (Defense Advanced Research Projects Agency) gère d’ailleurs un programme visant à trouver des moyens d’utiliser des algorithmes pour “prendre des décisions de manière indépendante dans des domaines difficiles”. Pourtant, cette nouvelle étude souligne les dangers d’une telle utilisation, pour laquelle l’IA n’est visiblement pas prête. Les chercheurs affirment ainsi : “La nature imprévisible du comportement d’escalade affiché par ces modèles dans des environnements simulés souligne la nécessité d’une approche très prudente de leur intégration dans des opérations militaires et de politique étrangère à fort enjeu“. Source : futurism Article précédent Microsoft Teams : victime d’une panne mondiale, l’application est enfin de retour janvier 29, 2024 Article suivant Bluesky : l’alternative open-source de Twitter est maintenant ouverte à tous février 7, 2024