OpenAI : les pirates pourraient facilement espionner vos conversations avec ChatGPT
Une nouvelle étude met en avant les failles de sécurité dont serait victime le célèbre chatbot d’OpenAI. En effet, selon cette dernière, des personnes malintentionnées seraient en mesure de déchiffrer facilement les conversations tenues avec ChatGPT.
Si populaire soit-il, le célèbre chatbot d’OpenAI ne serait pas dénué de défauts. En effet, tandis que le responsable de la sécurité d’OpenAI a quitté l’entreprise, ChatGPT afficherait certaines failles de sécurité concernant les données de ses utilisateurs. L’utilisation de l’IA à des fins malveillantes n’est pas nouvelle, des hackers utilisant cette technologie afin de diffuser des malwares sur YouTube. Mais cette fois, ce sont les utilisateurs eux-mêmes de ChatGPT qui seraient concernés.
Yisroel Mirsky, directeur du laboratoire de recherche sur l’IA offensive à l’université Ben-Gurion, affirme ainsi : “Actuellement, n’importe qui peut lire les conversations privées envoyées par ChatGPT et d’autres services. Il peut s’agir d’acteurs malveillants présents sur le même réseau Wi-Fi ou LAN qu’un client (par exemple, dans le même café), ou même d’un acteur malveillant sur l’internet, c’est-à-dire toute personne capable d’observer le trafic.”
ChatGPT : un cryptage insuffisant ?
Ce type de piratage est connu sous le nom de “side-channel attacks” (“attaques par canal latéral”). Les pirates collectent ainsi les données en utilisant des métadonnées ou d’autres expositions indirectes, plutôt qu’en franchissant les pare-feu de sécurité. Si cette méthode peut être utilisée dans plusieurs situations, l’IA semble particulièrement vulnérable en raison de son cryptage de qualité moindre.
Le spécialiste précise ainsi : “L’attaque est passive et peut se produire à l’insu d’OpenAI ou de ses clients. OpenAI chiffre son trafic pour empêcher ce type d’attaques d’écoute, mais nos recherches montrent que la façon dont OpenAI utilise le chiffrement est défectueuse et que le contenu des messages est donc exposé.”
Bien que ces méthodes soient moins invasives que d’autres formes de piratage, elles seraient capables de déduire une invite de chatbot donnée avec une précision de 55 %. Selon l’étude, la plupart des chatbots sur le marché pourraient être victimes de ce type d’attaques.
Source : futurism