Intelligence artificielle : ces spécialistes sont là pour vous protéger de l’IA Par David Laurent le 30 juin 2023 En pleine expansion, le domaine de l’intelligence artificielle s’aventure au-delà de ses frontières traditionnelles. Plusieurs spécialistes sont là pour éviter les problèmes liés à l’IA. L’explosion soudaine de l’IA inquiète bon nombre de spécialistes. Près de la moitié des chefs d’entreprise pensent d’ailleurs que celle-ci représente un danger pour l’humanité. D’ailleurs, l’un des spécialistes de l’IA a exprimé ses regrets. L’ancien PDG de Google pense même que cette technologie pourrait “tuer ou blesser”. Mais, heureusement, certaines personnes sont là pour nous aider. Crédit photo : Unsplash L’intelligence artificielle progresse, et les personnes qui participent à son développement et à son étude évoluent également. Le groupe actuel de dirigeants, de chercheurs, d’entrepreneurs et d’activistes dans ce domaine est plus diversifié que ceux qui ont initialement créé ChatGPT. Ce nouveau groupe comprend des personnes qui ne se concentrent pas uniquement sur la création d’algorithmes ou la génération de profits. Ils sont aussi profondément investis dans des préoccupations sociétales plus larges. Depuis son lancement, ChatGPT joue un rôle important dans notre vie quotidienne, pour simplifier nos tâches, poser des questions importantes ou simplement pour parler quand nous nous ennuyons. Ces utilisations de ChatGPT peuvent nous rendre dépendants de son existence au point qu’il peut être utilisé contre notre existence. Ces personnes essaient maintenant d’éviter que cela ne se produise. IA : de nombreux spécialistes s’engagent Inioluwa Deborah Raji collabore avec la Fondation Mozilla, en se concentrant sur le développement d’outils open source. Ces outils ont pour but d’aider les individus à évaluer les systèmes d’intelligence artificielle afin de détecter les failles telles que les biais et les inexactitudes, d’éviter la désinformation et de produire des résultats fiables. Les gens nient activement le fait que des préjudices se produisent”, dit-elle, “la collecte de preuves fait donc partie intégrante de tout progrès dans ce domaine”. Daniela Amodei, qui a déjà contribué à l’élaboration de la politique d’intelligence artificielle chez OpenAI et joué un rôle important dans les premières étapes de ChatGPT, a quitté l’entreprise en 2021. Son départ a conduit à la création d’Anthropic, une société d’intérêt public qui vise à établir son approche unique pour assurer la sécurité de l’IA. Lila Ibrahim, directrice des opérations de Google DeepMind, dirige une division de recherche cruciale consacrée aux initiatives de Google en matière d’IA générative. Lila Ibrahim ne considère pas son poste comme un simple travail, mais comme un devoir moral. Elle vise à maximiser les avantages des projets de DeepMind tout en évitant les conséquences néfastes. “J’ai pensé que si je pouvais apporter une partie de mon expérience et de mon expertise pour aider à faire naître cette technologie dans le monde d’une manière plus responsable”. Source : wired Article précédent Meta utilise l’IA pour vous recommander du contenu personnalisé juin 30, 2023 Article suivant Selon Emmanuel Macron, les jeux vidéo, TikTok et Snapchat sont responsables des émeutes en France juillet 3, 2023