Après une année 2025 controversée, le PDG d'OpenAI, Sam Altman, a publié une offre d'emploi sur la plateforme X, annonçant que l'entreprise recherche un nouveau «Personne responsable de la préparation (Responsable de la préparation aux situations d'urgence) Ce poste offre une rémunération très avantageuse, avec un salaire de base de 55.5 000 $ US (environ 18 millions de NT$) et des options d'achat d'actions. Cependant, Sam Altman a également prévenu sans détour qu'il s'agirait d'un poste « stressant » et que les candidats retenus devraient être prêts à « se plonger immédiatement dans le grand bain ».
Les « vrais défis » de l'IA : de la peur de la science aux poursuites judiciaires dans le monde réel
Pourquoi ce poste est-il si important et source de fortes pressions ? Parce que 2025 est l’année où les dangers de l’IA passeront de la « théorie » à la « réalité » pour OpenAI.
Sam Altman a reconnu que les modèles d'OpenAI ont commencé à poser de réels défis, notamment l'impact potentiel de ChatGPT sur la santé mentale des utilisateurs, dont l'entreprise a déjà « entrevu les prémices » en 2025. Il est entendu qu'OpenAI a fait face à de nombreuses allégations concernant la santé mentale des utilisateurs cette année, et a même été impliquée dans plusieurs poursuites pour homicide involontaire.
La principale mission du nouveau dirigeant sera de piloter la stratégie technique et la mise en œuvre du « cadre de préparation » d'OpenAI. En clair, il s'agit d'anticiper les risques de mésusage des modèles d'IA de nouvelle génération et les risques dévastateurs (pour le bien-être psychologique individuel ou la sécurité sociale) qui pourraient survenir, et d'élaborer des stratégies de défense adaptées.
Nous recrutons un Responsable de la préparation aux situations d'urgence. Ce poste est crucial à un moment charnière : les modèles évoluent rapidement et sont désormais capables de prouesses remarquables, mais ils commencent également à soulever de réels défis. L'impact potentiel des modèles sur la santé mentale est une question que nous…
- Sam Altman (@sama) 27 décembre 2025
Le « roulement incessant » des équipes de sécurité : tous les anciens responsables partent.
Ce poste est considéré comme un « sujet sensible » en raison du taux de roulement élevé qu'il a connu ces dernières années.
L'équipe de sécurité d'OpenAI a connu d'importants changements de personnel ces dernières années :
• 2024 mars :L'ancien directeur, Aleksander Madry, a été muté.
• Où se trouve le successeur :À cette époque, elle a été reprise par les cadres supérieurs Joaquin Quinonero Candela et Lilian Weng.
• Développements ultérieurs :Quelques mois plus tard, Weng LiQuitter l'entrepriseQuinonero Candela a également annoncé son départ de l'équipe de préparation en juillet 2025 pour prendre en charge le recrutement.
Analyse : Le coût élevé des salaires élevés
La campagne de recrutement très médiatisée d'OpenAI, avec son salaire annuel de plusieurs millions de dollars, reflète le dilemme auquel elle est confrontée pour concilier « développement commercial » et « responsabilité sociale ».
Ces dernières années, les discussions sur la sécurité de l'IA se sont surtout concentrées sur le risque existentiel, digne de la science-fiction, de savoir si l'IA détruira l'humanité. Cependant, une série d'événements survenus en 2025 ont prouvé que les « risques personnels » liés à l'IA — tels que l'incitation au suicide, la dépendance psychologique et la manipulation par la désinformation — constituent les crises les plus urgentes à l'heure actuelle.
La description faite par Sam Altman de ce poste comme un « saut dans le vide » n'est peut-être pas exagérée. Le nouveau dirigeant doit non seulement posséder une vision technique hors pair, mais aussi un sens politique aigu et une grande résilience pour gérer les tensions entre les partisans de l'accélération et les défenseurs de la sécurité au sein de l'entreprise, tout en faisant face à la colère des organismes de réglementation et des familles des victimes.
