Actualité

IA

Ils disent NON à la Superintelligence artificielle !

Par Laurence - Publié le

Personne ne peut plus l'ignorer : l'IA est partout. Et certains s'en effraient. Geoffrey Hinton, Yoshua Bengio, Steve Wozniak ou encore Richard Branson signent un appel international pour suspendre le développement d’une intelligence artificielle capable de dépasser l’humain.

IA Superintelligence


Tirer la sonnette d’alarme



Plus de 800 chercheurs, entrepreneurs, responsables politiques et célébrités ont signé, mercredi 22 octobre, un appel mondial à l’arrêt du développement de la superintelligence artificielle — ces systèmes d’IA censés surpasser les capacités intellectuelles humaines. L’initiative, portée par le Future of Life Institute (FLI), réclame un moratoire immédiat sur tout projet visant à créer une telle intelligence, tant qu’aucun cadre scientifique ou politique n’en garantit la sûreté.

Ils disent NON à la Superintelligence artificielle !


Parmi les signataires, on retrouve des figures majeures de l’intelligence artificielle moderne comme Geoffrey Hinton (prix Nobel de physique 2024), Yoshua Bengio (Université de Montréal) et Stuart Russell (Université de Berkeley). Inacceptable ! pensent-ils tous. Nous appelons à l’arrêt du développement d’une superintelligence tant qu’il n’existe pas de consensus scientifique démontrant que cela peut être fait de manière sûre et contrôlée.

Mais aussi des noms plus inattendus : Steve Wozniak (cofondateur d’Apple), Richard Branson (Virgin Group), Susan Rice (ancienne conseillère à la sécurité nationale américaine), ou encore le prince Harry et Meghan Markle. Certains représentants religieux, dont Paolo Benanti, conseiller du pape François sur les questions d’IA, ont également apporté leur soutien.

Pour Max Tegmark, président du FLI, peu importe que ce soit dans deux ou quinze ans, construire une telle chose est inacceptable. Selon lui, les entreprises ne devraient pas plancher sur ce type de projets sans aucun cadre réglementaire.

Ils disent NON à la Superintelligence artificielle !


Une fracture de plus en plus visible dans la tech



Cette nouvelle prise de position illustre le clivage croissant entre les AI boomers et les AI doomers — les premiers prônant un développement rapide et sans entrave, les seconds réclamant un contrôle strict avant qu’il ne soit trop tard.

Pour Sam Altman, CEO d’OpenAI, la superintelligence pourrait émerger d’ici cinq ans. Une perspective qui inquiète autant qu’elle fascine : selon une étude du FLI, seulement 5 % des adultes américains soutiennent aujourd’hui un développement rapide et non régulé de l’IA.

Ils disent NON à la Superintelligence artificielle !


Les signataires mettent en garde contre des risques allant de la perte d’emploi à la disparition du libre arbitre, en passant par des menaces pour la sécurité nationale ou même l’extinction de l’humanité. Si certains espèrent encore qu’une IA superintelligente puisse un jour résoudre des problèmes mondiaux comme le cancer ou le changement climatique, la majorité des chercheurs appellent à la prudence.

Mais tout le monde n'est pas de cet avis. Comme Yoshua Bengio : Avant d’aller plus loin, il faut d’abord savoir comment concevoir des systèmes d’IA fondamentalement incapables de nuire aux humains — volontairement ou non. Un avertissement clair, à l’heure où la course à la puissance entre OpenAI, Meta, Google et xAI semble plus effrénée que jamais.