Google a discrètement modifié ses règles sur l’intelligence artificielle. L’entreprise a supprimé son engagement à ne pas utiliser l’IA pour des armes ou la surveillance, une décision qui inquiète autant les défenseurs des droits humains que certains de ses propres employés. Ce revirement, officialisé par sa maison-mère Alphabet, est un tournant stratégique dans un contexte où l’IA devient un enjeu majeur pour la défense.
Visuel : IA
Fin de l’interdiction, début des critiques
Jusqu’ici, Google affichait clairement une ligne rouge : pas d’IA pour des applications susceptibles de causer du tort, notamment dans le cadre militaire. Mais ce passage a disparu de ses principes éthiques, laissant la porte ouverte à des collaborations avec l’armée ou des agences de renseignement. Human Rights Watch n’a pas tardé à réagir, et dénonce un choix incroyablement préoccupant. Selon l’ONG, l’IA dans les armes autonomes peut rendre plus difficile l’attribution des responsabilités en cas de frappes meurtrières.
De son côté, Google assume et justifie sa décision. Dans un billet de blog, Demis Hassabis, patron de Google DeepMind, et James Manyika, vice-président en charge des technologies et de la société, expliquent que l’IA a évolué depuis l’adoption des principes éthiques en 2018 et que son utilisation pour la sécurité nationale ne doit pas être laissée aux régimes autoritaires.
L’IA, un atout militaire de plus en plus convoité
La question n’est pas nouvelle, mais elle devient récurrente. L’Ukraine et le Moyen-Orient ont déjà été des terrains où l’IA a été utilisée dans les combats, et plusieurs pays cherchent à accélérer leur adoption dans les domaines militaires et de surveillance. Le Doomsday Clock, qui évalue les menaces existentielles pour l’humanité, dont on vous parlait ici, a récemment mentionné les risques liés aux armes autonomes capables de prendre des décisions létales sans intervention humaine.
Google, jusque-là en retrait sur ces sujets, rejoint finalement Microsoft et Amazon, qui ont depuis longtemps signé des contrats avec le Pentagone. À l’heure où la Chine et d’autres nations investissent massivement dans ces technologies, la pression pour ne pas rester à la traîne se fait sentir.
Des employés pas vraiment convaincus
Ce revirement ne plaît pas à tout le monde, et certains employés de Google l’ont fait savoir sur des forums internes. Mèmes sarcastiques, références à des sketchs et comparaisons douteuses avec des méchants de films : l’ambiance est à la désillusion pour ceux qui croyaient encore en l’engagement éthique de l’entreprise. Pas de doute, le slogan originel de Google, Don’t be Evil, commence à battre de l’aile.
Difficile de ne pas voir un parallèle avec 2018, quand Google avait dû abandonner un contrat avec le Pentagone après une révolte interne. Mais les temps ont changé, et avec un investissement prévu de 75 milliards de dollars dans l’IA cette année, Google semble plus préoccupé par sa place dans la course technologique que par d’anciennes promesses.