Actualité

IA

OpenAI recherche un spécialiste des risques liés à... l’IA

Par Laurence - Publié le

En guise de résolution du nouvel an, OpenAI semble vouloir renforcer son dispositif de sécurité. Face à l’accélération spectaculaire des capacités de ses modèles d’intelligence artificielle, Sam Altman vient d’annoncer le recrutement d’un Head of Preparedness, un poste dont la mission est aussi claire qu’inquiétante : anticiper tout ce qui pourrait mal tourner avec l’IA.

ChatGPT OpenAi Monsieur Risque


Un rôle dédié aux scénarios catastrophes



Dans un message publié sur X, Sam Altman reconnaît que les progrès rapides de l’IA posent de véritables défis. Parmi eux, deux sujets sensibles sont explicitement mentionnés : l’impact sur la santé mentale des utilisateurs et les risques liés à des cyberarmes dopées à l’IA. Un aveu qui tranche avec le discours longtemps centré sur les opportunités technologiques, à moins qu'il ne s'agisse de responsabilité juridique.

Selon l’offre d’emploi, le poste est taillé pour Superman — ou quelqu'un de la même trempe. En effet, la personne recherchée sera chargée de suivre et anticiper les capacités de pointe susceptibles de créer des risques de dommages graves. Concrètement, cela implique de piloter l’évaluation des modèles, la modélisation des menaces et la mise en place de mesures de mitigation, dans une logique à la fois rigoureuse et industrialisable.

Sam Altman précise que ce responsable devra également sécuriser les modèles avant la publication de capacités sensibles — notamment dans le domaine biologique — et définir des garde-fous pour d’éventuels systèmes capables de s’auto-améliorer. Le dirigeant prévient d’ailleurs sans détour : ce sera un poste particulièrement stressant.



Santé mentale : un sujet devenu impossible à ignorer



Cette annonce intervient dans un contexte délicat pour l’industrie de l’IA. Ces derniers mois, plusieurs affaires très médiatisées ont mis en cause des chatbots dans le suicide d’adolescents, relançant le débat sur les effets psychologiques de ces outils. Le phénomène d’« IA psychotique » inquiète de plus en plus les spécialistes : certains utilisateurs développent des relations de dépendance, voient leurs délires renforcés ou utilisent les chatbots pour dissimuler des troubles du comportement alimentaire.

À ce titre, la décision d’OpenAI peut sembler tardive. Pour ses détracteurs, le problème n’est pas tant l’absence de cadres théoriques que le déploiement massif de modèles puissants avant une réelle évaluation de leurs impacts humains.

OpenAI recherche un spécialiste des risques liés à... l’IA


Qu'en penser ?



Avec ce recrutement, OpenAI tente d’afficher une volonté de responsabilité à l’heure où la régulation s’intensifie, notamment en Europe et aux États-Unis. Est-ce que la firme trouvera la perle rare et est-ce que ce poste disposera d’un véritable pouvoir décisionnel ou s’il s’agira surtout d’un signal politique destiné à rassurer partenaires, régulateurs et grand public.

Une chose est sûre : à mesure que l’IA gagne en autonomie et en influence, anticiper ses dérives devient aussi stratégique que développer ses performances. Et chez OpenAI, cette réalité semble désormais impossible à ignorer.