Google : cette nouvelle fonctionnalité d’IA pourrait gravement nuire à votre vie privée

Google a profité de la conférence I/O pour présenter un nouvel outil d’IA, qui permet de filtrer les appels indésirables. Si ce dernier peut sembler intéressant, une telle technologie pourrait poser des problèmes concernant la vie privée des utilisateurs.

Google a rapidement rattrapé son retard en matière d’IA, face à des concurrents tels que Microsoft ou OpenAI (ChatGPT). Le géant du numérique a par exemple lancé Gemini, une IA capable de concurrencer le célèbre chatbot d’OpenAI. Mais, bien que Google ait annoncé sa volonté de lutter contre l’utilisation abusive de l’IA, cette dernière pose des problèmes de confidentialité. Gemini, par exemple, conserve les données des utilisateurs pendant plusieurs années.

Crédit photo : Unsplash

Pourtant, Google semble continuer sur sa lancée et propose désormais une fonction de détection des appels frauduleux, qui, selon l’entreprise, sera intégrée dans une future version de son système d’exploitation Android. Cette dernière est alimentée par Gemini Nano, un modèle d’IA dédié à une utilisation sur mobile.

Google : la vie privée des utilisateurs est-elle en danger ?

Mais, selon plusieurs experts, une telle technologie pourrait à terme nuire à la vie privée des utilisateurs. D’ailleurs, Apple a renoncé à déployer un système similaire en 2021 à la suite d’un tollé sur la question de la protection de la vie privée des utilisateurs.

Lukasz Olejnik, consultant en matière de protection de la vie privée et de sécurité, a dans un premier temps salué cette technologie, tout en faisant part de ses inquiétudes. Le spécialiste affirme ainsi : « Je n’ai pas vu les détails techniques, mais Google assure que la détection se fera sur l’appareil. C’est une bonne chose pour la vie privée des utilisateurs. Cependant, il y a bien plus en jeu que la vie privée. Cela montre comment l’IA/LLM intégrée dans les logiciels et les systèmes d’exploitation peut être utilisée pour détecter ou contrôler diverses formes d’activité humaine. »

Matthew Green, expert en cryptographie, estime même que l’IA sera bientôt capable d’analyser l’ensemble des conversations des utilisateurs, écrites comme orales. Toutefois, selon lui, cette fonctionnalité ne sera pas possible avant plusieurs années. L’expert précise : « À l’avenir, les modèles d’IA exécuteront des inférences sur vos textes et vos appels vocaux pour détecter et signaler les comportements illicites […] Nous sommes encore loin d’une technologie suffisamment efficace pour la réaliser, mais seulement dans quelques années. Une décennie tout au plus. »

Source : techcrunch