Le New Yorker a publié une longue enquête, accablante, sur Sam Altman, le patron d'OpenAI. Signée par les journalistes Ronan Farrow et Andrew Marantz, elle s'appuie sur plus de 100 témoignages et des documents internes jamais rendus publics. Le portrait qui en ressort est peu flatteur, entre mensonges, promesses de sécurité non tenues et manoeuvres financières.
Des mémos accablants compilés en interne
L'enquête révèle que dès l'automne 2023, Ilya Sutskever, alors directeur scientifique d'OpenAI, avait compilé environ 70 pages de notes internes sur le comportement de Sam Altman. Le mot mentir figurait en tête de liste des reproches. Dario Amodei, cofondateur d'Anthropic et ancien d'OpenAI, avait lui aussi participé à la rédaction de ces documents. Un membre du conseil d'administration va même plus loin en qualifiant Altman de sociopathe, ajoutant qu'il est détaché de la vérité. Paul Graham, cofondateur de Y Combinator, aurait confié à ses collègues qu'Altman leur mentait depuis le début après son départ de l'accélérateur en 2019.
La sécurité de l'IA, promesse non tenue
Côté sécurité, les engagements n'ont visiblement pas été respectés. En 2023, OpenAI avait annoncé consacrer 20% de sa puissance de calcul à son équipe de "superalignment", chargée de s'assurer que les futurs modèles d'IA restent sous contrôle. Quatre sources internes affirment que le budget réel se situait entre 1 et 2%. L'équipe a été dissoute en 2024 sans avoir terminé ses travaux. Et puis il y a cet épisode de fin 2022 : Altman aurait assuré au conseil d'administration que les fonctions les plus controversées de GPT-4 avaient reçu le feu vert d'un comité de sécurité. Helen Toner, membre du board, a demandé les documents. Les fameuses fonctions n'avaient jamais été validées. Microsoft avait même déployé une version de ChatGPT en Inde sans passer par l'examen de sécurité requis.
Finances personnelles et ambitions géopolitiques
L'enquête pointe aussi des pratiques financières qui posent question. Altman aurait réalisé des investissements personnels bloquant l'accès d'autres investisseurs chez certaines startups. Côté géopolitique, l'article raconte qu'il a continué à chercher des financements saoudiens après le meurtre de Jamal Khashoggi en 2018, demandant à ses conseillers s'il pouvait s'en tirer. Il aurait aussi développé une relation avec Sheikh Tahnoon des Emirats arabes unis, allant jusqu'à visiter son yacht à 250 millions de dollars. Pour justifier ses demandes de financement auprès du gouvernement américain, Altman aurait évoqué un supposé Projet Manhattan de l'IA en Chine, sans preuve à l'appui.
On en dit quoi ?
OpenAI a répondu que l'article s'appuie sur des affirmations anonymes et des anecdotes sélectives de personnes avec des motivations claires. Altman, lui, a déclaré que son ressenti ne correspond pas trop au discours traditionnel sur la sécurité de l'IA. Difficile de faire plus décontracté quand on dirige la boite la plus influente du secteur. Et comme par hasard, quelques heures après la publication de l'enquête, OpenAI a annoncé un tout nouveau programme de bourses de recherche en sécurité. Le timing est quand même étonnant. On parle d'un homme à la tête d'une entreprise valorisée à plusieurs centaines de milliards de dollars, qui développe des modèles d'IA utilisés par des centaines de millions de personnes. Le minimum, ça serait peut-être un peu de franchise.