L’armée américaine fait appel à OpenAI pour concevoir de nouveaux outils d’intelligence artificielle. Ce contrat stratégique s’inscrit dans un contexte de course technologique entre grandes puissances, où l’IA devient une arme géopolitique.
Un contrat à 200 millions
Dans un contexte de rivalité technologique croissante entre les grandes puissances, l’intelligence artificielle est de plus en plus présente. Le département américain de la Défense a annoncé cette semaine la signature d’un contrat de 200 millions de dollars (environ 173 millions d’euros) avec OpenAI, la société mère de ChatGPT, pour développer des outils dits de pointe au service de l’armée américaine.
L’objectif affiché par le Pentagone est clair : s’appuyer sur les dernières avancées en matière d’intelligence artificielle pour relever de nouveaux défis cruciaux de sécurité nationale. Si les contours exacts du partenariat sont volontairement flous (et le resteront très probablement), l’administration américaine évoque des cas d’usage allant de l’automatisation de tâches administratives à l’amélioration de la cyberdéfense, en passant par l’optimisation de la collecte et de l’analyse de données.
Un nouveau marché stratégique pour OpenAI
Pour OpenAI, ce contrat marque une étape importante. L’entreprise fondée à San Francisco inaugure ainsi son initiative baptisée OpenAI for Government, une nouvelle offre commerciale spécifiquement pensée pour les agences et ministères fédéraux.
L’enjeu est double : d’une part, élargir ses sources de revenus au-delà de ChatGPT et de ses API commerciales ; d’autre part, renforcer sa légitimité dans un écosystème encore très dominé par des acteurs comme Palantir, Google ou Microsoft dans le domaine de la défense.
Il reste bien évidemment la question, ultra sensible, de l’éthique. Consciente des critiques que peut susciter une collaboration avec l’armée, OpenAI assure que les technologies développées dans le cadre de ce contrat respecteront scrupuleusement ses conditions d’utilisation et ses règles d’éthique interne. Jusqu’ici, l’entreprise avait exclu l’usage de ses outils pour la surveillance de masse ou la mise au point d’armes autonomes. Mais elle touche aussi à un nouveau domaine, bien plus risqué !