Apple vous met au défi de hacker son IA, 1 million de dollars de récompense Par David Laurent le 26 octobre 2024 La marque à la pomme semble être particulièrement fière des systèmes de sécurité entourant son IA, baptisée Apple Intelligence. Apple propose en effet une récompense de 1 million de dollars à quiconque parviendra à pirater ses systèmes. Apple a mis les bouchées doubles afin de rattraper son retard en matière d’intelligence artificielle. Le géant du numérique a en effet récemment dévoilé Apple Intelligence, une IA qui peine pourtant à rivaliser avec le célèbre ChatGPT d’OpenAI. Celle-ci a d’ailleurs été intégrée à la dernière génération d’iPad. Et, si une récente faille de sécurité a mis en danger les utilisateurs d’iPhone dans une centaine de pays, Apple semble être particulièrement confiant concernant la sécurité de sa nouvelle IA. Crédit photo : Unsplash Apple Intelligence, qui sera intégré à Siri, fonctionne d’une manière bien particulière. En effet, si la plupart des requêtes sont traitées en interne via l’IA propriétaire d’Apple, cette dernière compense certaines lacunes en transmettant vos demandes au ChatGPT d’OpenAI. Mais ce n’est pas tout. Apple vous aide à hacker sa propre IA En effet, Apple utilise également un système en cloud, le Private Cloud Compute, qui contient d’importantes quantités de données d’utilisateurs. Et, selon l’entreprise, ce système servirait avant tout à sécuriser de manière efficace les données de ses utilisateurs. Ce système serait ainsi si efficace qu’Apple offre de généreuses primes à qui parviendra à s’introduire dans le système. Ces primes sont divisées en trois échelons. Tout d’abord, Apple offre une prime de base de 50 000 dollars pour « divulgation accidentelle ou inattendue de données ». Les petits malins qui réussiront à obtenir « l’accès aux données de requête des utilisateurs ou à des informations sensibles concernant la requête des utilisateurs » recevront 250 000 dollars. Mais la prime la plus impressionnante, d’une valeur de 1 million de dollars (environ 925 000 euros), sera attribuée à celui qui parviendra à effectuer « l’exécution d’un code arbitraire avec des droits arbitraires ». Apple compte d’ailleurs vous aider à mener à bien votre « projet ». En effet, l’entreprise met à disposition un guide de sécurité et l’accès à un environnement de recherche virtuel pour analyser le PCC à l’intérieur de macOS. Ces outils sont réservés aux possesseurs d’un Mac équipé d’une puce de la série M et d’au moins 16 Go de mémoire vive. Source : gizmodo La rédaction vous conseille : Apple affirme avoir adopté une approche “responsable” pour son IA Apple Intelligence Apple ne veut pas vous laisser réparer votre iPhone vous-même, voici pourquoi Apple Intelligence est-elle en mesure de rivaliser avec ChatGPT ? Article précédent Elon Musk poursuivi en justice pour avoir utilisé une image de Blade Runner 2049 générée par l’IA octobre 23, 2024 Article suivant Apple Intelligence sera disponible en France l’année prochaine octobre 29, 2024