Apple vous met au défi de hacker son IA, 1 million de dollars de récompense

La marque à la pomme semble être particulièrement fière des systèmes de sécurité entourant son IA, baptisée Apple Intelligence. Apple propose en effet une récompense de 1 million de dollars à quiconque parviendra à pirater ses systèmes.

Apple a mis les bouchées doubles afin de rattraper son retard en matière d’intelligence artificielle. Le géant du numérique a en effet récemment dévoilé Apple Intelligence, une IA qui peine pourtant à rivaliser avec le célèbre ChatGPT d’OpenAI. Celle-ci a d’ailleurs été intégrée à la dernière génération d’iPad. Et, si une récente faille de sécurité a mis en danger les utilisateurs d’iPhone dans une centaine de pays, Apple semble être particulièrement confiant concernant la sécurité de sa nouvelle IA.

Crédit photo : Unsplash

Apple Intelligence, qui sera intégré à Siri, fonctionne d’une manière bien particulière. En effet, si la plupart des requêtes sont traitées en interne via l’IA propriétaire d’Apple, cette dernière compense certaines lacunes en transmettant vos demandes au ChatGPT d’OpenAI. Mais ce n’est pas tout.

Apple vous aide à hacker sa propre IA

En effet, Apple utilise également un système en cloud, le Private Cloud Compute, qui contient d’importantes quantités de données d’utilisateurs. Et, selon l’entreprise, ce système servirait avant tout à sécuriser de manière efficace les données de ses utilisateurs. Ce système serait ainsi si efficace qu’Apple offre de généreuses primes à qui parviendra à s’introduire dans le système.

Ces primes sont divisées en trois échelons. Tout d’abord, Apple offre une prime de base de 50 000 dollars pour « divulgation accidentelle ou inattendue de données ». Les petits malins qui réussiront à obtenir « l’accès aux données de requête des utilisateurs ou à des informations sensibles concernant la requête des utilisateurs » recevront 250 000 dollars. Mais la prime la plus impressionnante, d’une valeur de 1 million de dollars (environ 925 000 euros), sera attribuée à celui qui parviendra à effectuer « l’exécution d’un code arbitraire avec des droits arbitraires ».

Apple compte d’ailleurs vous aider à mener à bien votre « projet ». En effet, l’entreprise met à disposition un guide de sécurité et l’accès à un environnement de recherche virtuel pour analyser le PCC à l’intérieur de macOS. Ces outils sont réservés aux possesseurs d’un Mac équipé d’une puce de la série M et d’au moins 16 Go de mémoire vive.

Source : gizmodo