Un ancien employé d’OpenAI (ChatGPT) estime que l’IA a 70% de chances de détruire l’humanité
Une récente lettre ouverte, publiée par d’anciens et d’actuels employés d’OpenAI, affirme que ces derniers sont réduits au silence lorsqu’ils soulèvent des questions de sécurité. Pire : l’un d’entre eux estime que l’IA pourrait gravement nuire à l’humanité.
De nombreuses personnalités nous ont déjà mis en garde contre les dangers de l’IA. On pense par exemple à James Cameron, qui prédit un avenir sombre dans son film Terminator, dans lequel une IA nommée Skynet tente de détruire l’humanité. OpenAI, à qui on doit le célèbre ChatGPT, étudie d’ailleurs les risques de catastrophes nucléaires engendrés par l’IA. Mais l’entreprise semble aussi ne pas tenir compte des craintes émises par certains de ses employés. D’ailleurs, le responsable de la sécurité d’OpenAI a récemment quitté l’entreprise.
Daniel Kokotajlo, ancien chercheur d’OpenAI, a ainsi accusé l’entreprise d’ignorer les risques “monumentaux” posés par l’intelligence artificielle générale (AGI), une forme d’IA superintelligente que l’entreprise serait en train de développer. Ce dernier affirme : « OpenAI est très enthousiaste à l’idée de construire l’AGI et elle se lance dans une course effrénée pour être la première à le faire ».
OpenAI : l’humanité court-elle à sa perte ?
Le chercheur, qui a rejoint OpenAI en 2022 afin d’anticiper les progrès de l’IA, a acquis la conviction non seulement que l’industrie atteindrait l’AGI d’ici à 2027, mais aussi qu’il y avait une forte probabilité qu’elle nuise à l’humanité. L’affirmation la plus inquiétante émise par le chercheur est sans doute le fait que la probabilité que l’IA détruise l’humanité est d’environ 70 %.
Daniel Kokotajlo était tellement convaincu par ses propres prédictions qu’il a fini par demander personnellement à Sam Altman, l’actuel PDG d’OpenAI, de « pivoter vers la sécurité » et de consacrer plus de temps à la mise en place de garde-fous pour contrôler l’IA, plutôt que de chercher à rendre cette dernière toujours plus intelligente.
Peu de temps après la publication de ces déclarations, OpenAI a tenu à rassurer le public. L’entreprise affirme ainsi : « Nous sommes fiers de nos antécédents en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs, et nous croyons en notre approche scientifique de la gestion des risques ».
Source : futurism