Personne ne peut plus l'ignorer : l'IA est partout. Et certains s'en effraient. Geoffrey Hinton, Yoshua Bengio, Steve Wozniak ou encore Richard Branson signent un appel international pour suspendre le développement d’une intelligence artificielle capable de dépasser l’humain.
Tirer la sonnette d’alarme
Plus de 800 chercheurs, entrepreneurs, responsables politiques et célébrités ont signé, mercredi 22 octobre, un appel mondial à l’arrêt du développement de la superintelligence artificielle — ces systèmes d’IA censés surpasser les capacités intellectuelles humaines. L’initiative, portée par le Future of Life Institute (FLI), réclame un moratoire immédiat sur tout projet visant à créer une telle intelligence, tant qu’aucun cadre scientifique ou politique n’en garantit la sûreté.
Parmi les signataires, on retrouve des figures majeures de l’intelligence artificielle moderne comme Geoffrey Hinton (prix Nobel de physique 2024), Yoshua Bengio (Université de Montréal) et Stuart Russell (Université de Berkeley). Inacceptable ! pensent-ils tous. Nous appelons à l’arrêt du développement d’une superintelligence tant qu’il n’existe pas de consensus scientifique démontrant que cela peut être fait de manière sûre et contrôlée.
Mais aussi des noms plus inattendus : Steve Wozniak (cofondateur d’Apple), Richard Branson (Virgin Group), Susan Rice (ancienne conseillère à la sécurité nationale américaine), ou encore le prince Harry et Meghan Markle. Certains représentants religieux, dont Paolo Benanti, conseiller du pape François sur les questions d’IA, ont également apporté leur soutien.
Pour Max Tegmark, président du FLI, peu importe que ce soit dans deux ou quinze ans, construire une telle chose est inacceptable. Selon lui, les entreprises ne devraient pas plancher sur ce type de projets sans aucun cadre réglementaire.
Une fracture de plus en plus visible dans la tech
Cette nouvelle prise de position illustre le clivage croissant entre les AI boomers et les AI doomers — les premiers prônant un développement rapide et sans entrave, les seconds réclamant un contrôle strict avant qu’il ne soit trop tard.
Pour Sam Altman, CEO d’OpenAI, la superintelligence pourrait émerger d’ici cinq ans. Une perspective qui inquiète autant qu’elle fascine : selon une étude du FLI, seulement 5 % des adultes américains soutiennent aujourd’hui un développement rapide et non régulé de l’IA.
Les signataires mettent en garde contre des risques allant de la perte d’emploi à la disparition du libre arbitre, en passant par des menaces pour la sécurité nationale ou même l’extinction de l’humanité. Si certains espèrent encore qu’une IA superintelligente puisse un jour résoudre des problèmes mondiaux comme le cancer ou le changement climatique, la majorité des chercheurs appellent à la prudence.
Mais tout le monde n'est pas de cet avis. Comme Yoshua Bengio : Avant d’aller plus loin, il faut d’abord savoir comment concevoir des systèmes d’IA fondamentalement incapables de nuire aux humains — volontairement ou non. Un avertissement clair, à l’heure où la course à la puissance entre OpenAI, Meta, Google et xAI semble plus effrénée que jamais.