Intelligence artificielle : l’UE parvient à un accord historique Par David Laurent le 11 décembre 2023 L’Union européenne vient d’établir un accord historique dans le cadre de son projet de loi sur le développement de la sécurité de l’IA. Partout dans le monde, de nombreux gouvernements veulent réguler au plus vite l’intelligence artificielle. OpenAI, DeepMind (Google), et Anthropic collaborent avec le Royaume-Uni à cet effet. En France, la CNIL a lancé un service dédié à l’IA. L’UE, quant à elle, prévoit de longue date une régulation de l’IA. Cette initiative semble être en train d’aboutir, les législateurs de l’Union européenne étant parvenus à établir un accord. Crédit photo : Unsplash Si les détails de cet accord restent relativement flous, cette nouvelle réglementation dicterait la manière dont les futurs modèles d’apprentissage automatique pourraient être développés et distribués au sein de l’UE. Leur développement serait divisé en quatre catégories en fonction du risque sociétal potentiel qu’ils représentent : minimal, limité, élevé et interdit. Intelligence artificielle : l’humain au centre des préoccupations de l’UE Tout d’abord, tout ce qui concerne l’approbation directe de l’utilisateur, tel que le suivi biométrique en temps réel ou encore la reconnaissance faciale, serait tout simplement interdit. Les chatbots tels que ChatGPT, Bard et Bing relèveraient quant à eux de la catégorie “risque limité”. Dragoș Tudorache, un législateur qui codirige les négociations sur la loi sur l’IA, affirme : “Cette législation représentera une norme, un modèle, pour de nombreuses autres juridictions […] Ce qui signifie que nous devons avoir un devoir de diligence supplémentaire lorsque nous la rédigeons, car elle aura une influence sur beaucoup d’autres“. La Commission européenne a déjà statué sa position à l’égard de l’IA dès 2018. Puis, en 2020, la commission a publié un livre blanc décrivant les grandes lignes de sa future politique à l’égard de l’IA. Celle-ci déclarait alors : “L’intelligence artificielle ne devrait pas être une fin en soi, mais un outil qui doit servir les gens dans le but ultime d’accroître le bien-être humain. Les règles relatives à l’intelligence artificielle […] devraient donc être centrées sur l’humain, afin qu’ils puissent avoir confiance dans le fait que la technologie est utilisée d’une manière sûre et conforme à la loi, y compris le respect des droits fondamentaux.” Source : engadget Article précédent Google lance Gemini, une IA qui pourrait détrôner GPT-4 décembre 7, 2023 Article suivant xAI : Grok, le chatbot d’Elon Musk, est accusé d’avoir plagié ChatGPT décembre 11, 2023