« Ce sera un travail stressant et vous devrez vous y plonger dès le premier instant. » Avec cet avertissement inhabituel, Sam Altman, PDG d'OpenAI, a présenté en X l'une des offres d'emploi les plus marquantes – et les mieux payées – du secteur technologique actuel. L'objectif est de pourvoir le poste de direction de « Preparation Manager », dédié exclusivement à l'anticipation, à la mesure et à la maîtrise des risques les plus graves de l'intelligence artificielle avancée.
Ce chiffre explique en partie la franchise : jusqu'à 555 000 dollars par an de salaire de base, plus les actions, selon la documentation interne de l'entreprise. Dans la Silicon Valley, où les salaires sont par définition élevés, dépasser le demi-million reste un signe clair qu'il ne s'agit pas seulement de talents techniques.
Faire passer la gestion des risques avant la gestion commerciale
Ce poste sera un élément clé pour OpenAI à un moment « critique ». Les modèles s’améliorent à une vitesse sans précédent et ne génèrent plus seulement du texte ou des images : ils détectent des failles de sécurité, influencent les états mentaux et commencent à montrer des capacités qui pourraient être réutilisées à des fins destructrices.
Altman lui-même l'admet sans détour : en 2025, dit-il, l'entreprise a déjà expérimenté « un aperçu » de l'impact de ces systèmes sur la santé mentale, et commence maintenant à voir les modèles devenir suffisamment compétents en cybersécurité pour détecter les failles critiques.
L’entreprise part du principe que le développement de l’IA avancée comporte des risques inévitables et que la seule option responsable est de confier à quelqu’un de bien payé, doté d’un pouvoir réel et soumis à une pression énorme, le soin de surveiller où et quand les dommages peuvent survenir.
Ainsi, le rôle du responsable de la préparation n'est pas d'être un philosophe d'entreprise ou un porte-parole rassurant, mais plutôt la personne responsable de la machinerie de sécurité : évaluations techniques, modèles de menace, tests d'abus, atténuations et décisions de publication.
Et, en fait, l’une des principales responsabilités qui incombera à la personne qu’elle embauchera sera de décider quand un modèle d’IA est trop dangereux à lancer, même si cela signifie perdre un avantage au profit de concurrents moins prudents.
Il est clair qu’il ne s’agit pas de n’importe quel métier.
Pendant des années, la critique récurrente des grandes entreprises d’IA était qu’elles parlaient avec une certaine légèreté des risques de leur technologie. OpenAI tente désormais de répondre en plaçant quelqu'un avec un prénom et un nom qui répond aux pires scénarios possibles. Le poste supervise les domaines que l'entreprise considère comme « graves » : la cybersécurité, les capacités biologiques et chimiques et les systèmes d'IA capables de s'auto-améliorer.
Rappelons que, selon ses propres échelles internes, OpenAI définit les « dommages graves » comme des résultats comparables à des milliers de morts, des blessures graves à grande échelle ou des pertes économiques de plusieurs centaines de milliards de dollars. C'est le type de définition qui apparaît habituellement dans les plans d'urgence des gouvernements, et non dans les offres d'emploi publiées sur les réseaux sociaux.
Contexte interne et externe
L'histoire récente d'OpenAI montre des tensions internes, des départs de responsables de la sécurité et des critiques publiques de la part d'anciens dirigeants qui se plaignaient du fait que la culture de sécurité passait au second plan face à des publications rapides (techniquement, c'était aussi la raison pour laquelle Altman lui-même avait été brièvement démis de ses fonctions de PDG).
D’un autre côté, OpenAI est désormais confrontée à une vague croissante de poursuites et de contrôles réglementaires, ainsi qu’à un climat social de méfiance croissante. En fait, des enquêtes récentes montrent que la majorité de la population américaine perçoit plus de risques que d’avantages dans le développement de l’IA, et qu’une grande majorité préfère une réglementation stricte, même si elle ralentit le développement.