L’intelligence artificielle s’invite désormais au cœur de la cybersécurité. Avec le projet Glasswing, Anthropic dévoile un nouveau modèle particulièrement puissant — Claude Mythos — et s’entoure de partenaires de poids, dont Apple, pour traquer les failles avant qu’elles ne deviennent critiques.
Apple rejoint une coalition stratégique autour de l’IA
Une semaine après la fuite, Anthropic a lancé son projet Glasswing, une initiative visant à sécuriser les logiciels les plus sensibles au monde grâce à l’intelligence artificielle. Dans cette coalition, on retrouve douze acteurs majeurs : Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, Nvidia et Palo Alto Networks.
Leur but ? Utiliser les capacités avancées de l’IA pour identifier et corriger des vulnérabilités avant qu’elles ne soient exploitées. Cupertino, historiquement très attentive à la sécurité de ses systèmes, s’inscrit ici dans une démarche proactive, en testant en avant-première le nouveau modèle Claude Mythos.
Claude Mythos : une IA qui traque les failles invisibles
Cette coalition prévoit de déployer deux leviers principaux : un nouveau modèle d’intelligence artificielle baptisé Claude Mythos Preview, capable de détecter des failles complexes, mais également, un important soutien financier, mêlant plusieurs millions de dollars de dons directs et des crédits d’utilisation pour accélérer l’adoption de ces outils.
Selon Anthropic, le très impressionnant Claude Mythos aurait déjà permis de détecter des milliers de vulnérabilités critiques dans tous les principaux systèmes d’exploitation et navigateurs web. Certaines de ces failles auraient échappé pendant des années aux audits humains et aux outils automatisés classiques. Dans un cas concret, l’IA aurait même identifié une chaîne d’exploitation dans le noyau Linux permettant potentiellement de prendre le contrôle complet d’une machine.
Au-delà de la simple détection, ce modèle se distingue aussi par ses capacités avancées en raisonnement, en recherche autonome et en génération de code — des compétences clés pour analyser des systèmes complexes et proposer des correctifs.
Une course contre la montre sécuritaire
L’enjeu dépasse largement le cadre technique. Anthropic alerte sur un point crucial : à mesure que ces modèles gagnent en puissance, ils pourraient aussi être utilisés à des fins malveillantes.
Le projet Glasswing vise justement à anticiper ce scénario en mettant ces capacités entre les mains d’acteurs responsables. Plus de 40 organisations travaillant sur des logiciels critiques ont déjà accès à une version preview du modèle pour renforcer leurs défenses.
Dans ce contexte, la participation d’Apple n’est pas anodine. Elle confirme que la sécurité ne repose plus uniquement sur des audits humains, mais sur une collaboration étroite entre ingénieurs et intelligence artificielle.
Une technologie encore sous contrôle
Pour l’instant, Anthropic ne prévoit pas de rendre Claude Mythos accessible au grand public. Le modèle reste réservé à un cercle restreint de partenaires, dans un cadre strictement encadré.
L’objectif à long terme est néanmoins de permettre un déploiement à grande échelle de ces IA de nouvelle génération, tout en garantissant un usage sécurisé. Une équation délicate, tant les capacités de ces modèles peuvent être puissantes — dans les deux sens.
Qu’en penser ?
Avec Claude Mythos et le projet Glasswing, l’IA franchit une nouvelle étape : celle d’un outil capable de sécuriser, mais aussi potentiellement de fragiliser, les infrastructures numériques.
Apple, en rejoignant cette initiative, montre qu’elle prend très au sérieux cette bascule. L’enjeu n’est plus seulement d’innover, mais de protéger un écosystème devenu critique à l’échelle mondiale.
Cette alliance illustre aussi une tendance de fond : face à des systèmes toujours plus complexes, la cybersécurité devient un terrain où l’intelligence artificielle pourrait rapidement devenir indispensable — autant pour défendre que pour anticiper les menaces de demain.