L'exode silencieux : quand les créateurs de l'IA abandonnent le navire

Il y a quelques jours, nous avons parlé de Zoë Hitzig, la chercheuse d'OpenAI qui a claqué la porte après l'annonce de la publicité sur ChatGPT. Ce n'est pas un épisode isolé. En effet, février 2026 s'avère être le mois des démissions de haut vol, une séquence d'adieux prestigieux qui redessine la carte de l'intelligence artificielle. Il ne s'agit pas d'un simple roulement de personnel, ce qui est physiologique dans la Silicon Valley. C'est quelque chose de différent, de plus profond : les chercheurs abandonnent les entreprises au moment même où elles annoncent des modèles toujours plus puissants, des valorisations se comptant en milliards et des projets d'entrée en bourse. Comme lorsque les marins expérimentés commencent à quitter le navire avant même que les fissures dans la coque ne soient évidentes.
Février, le mois des démissions
La chronique de ces derniers jours ressemble à l'une de ces séquences accélérées dans les films où l'on voit les saisons changer à travers la fenêtre. Le 9 février, Mrinank Sharma annonce sur X sa démission d'Anthropic avec une lettre qui ressemble plus à un manifeste existentiel qu'à un préavis d'entreprise classique. Sharma dirigeait le Safeguards Research Team, le groupe chargé de défendre Claude contre les utilisations malveillantes. Sa lettre, truffée de citations poétiques et de références philosophiques, contient un passage qui a fait le tour du web : « Le monde est en danger. Et pas seulement à cause de l'IA ou des armes biologiques, mais à cause de toute une série de crises interconnectées qui se manifestent en ce moment même. »
Le ton est apocalyptique, mais Sharma ne parle pas seulement de scénarios futurs. Il y a un autre passage, plus tranchant, concernant l'expérience concrète au sein d'Anthropic : « Pendant mon séjour ici, j'ai vu à plusieurs reprises combien il est difficile de laisser nos valeurs gouverner réellement nos actions. Je l'ai vu en moi-même, dans l'organisation, où nous sommes constamment confrontés à des pressions pour mettre de côté ce qui compte le plus. » La CNN rapporte qu'Anthropic, interrogée, a précisé que Sharma n'était pas le responsable de la sécurité (safety) au sens général, mais la distinction ressemble plus à une défense juridique qu'à un démenti substantiel du problème.
Deux jours plus tard, le 11 février, c'est au tour de Zoë Hitzig. Sa lettre publiée dans le New York Times ne laisse aucune place à l'ambiguïté : ses « profondes réserves » concernent la stratégie publicitaire émergente d'OpenAI. Le point n'est pas idéologique, il est pratique : ChatGPT conserve des conversations dans lesquelles les gens ont partagé des « peurs médicales, des problèmes relationnels, des croyances sur Dieu et l'au-delà ». Cette intimité, construite sur la confiance dans un programme sans arrière-pensées, devient problématique au moment où cette archive devient un outil de monétisation. Hitzig avertit que la technologie a « un potentiel de manipulation des utilisateurs d'une manière que nous n'avons pas les outils pour comprendre, et encore moins prévenir ».
Le cas de Ryan Beiermeister est encore plus emblématique de la tension entre sécurité et business. Vice-présidente des politiques de produits chez OpenAI, elle a été licenciée en janvier après s'être opposée au lancement d'un « adult mode » qui permettrait des contenus sexuels explicites sur ChatGPT. Officiellement pour discrimination sexuelle envers un collègue masculin, une accusation qu'elle qualifie d'« absolument fausse ». OpenAI soutient que le licenciement « n'est lié à aucune question soulevée par elle pendant son travail dans l'entreprise ». Mais le timing est suspect, et le Wall Street Journal note que Beiermeister avait lancé un programme de mentorat pour les femmes dans l'entreprise dès le début de 2025. Le contexte est celui d'une administration américaine qui fait pression contre les initiatives de diversité et d'inclusion. Comme le note le journaliste tech Brian Merchant avec une lucidité sardonique, « les dirigeants tech ont enfin accumulé leur pouvoir suprême dont ils rêvaient depuis longtemps : licencier sommairement toute personne qui critique leur désir de faire l'amour avec des robots ».
Du laboratoire au précipice
Mais c'est xAI, la startup d'Elon Musk, qui offre le tableau le plus dramatique. En quelques jours, entre le 9 et le 11 février, six cofondateurs sur douze ont annoncé leur départ de l'entreprise. Tony Wu et Jimmy Ba, tous deux cofondateurs, partent à quelques heures d'intervalle. Wu dirigeait l'équipe de raisonnement (reasoning), Ba celle de la recherche et de la sécurité. Leurs messages d'adieu sont cordiaux, reconnaissants, pleins de remerciements envers Musk. Mais d'anciens employés ayant parlé à The Verge racontent une histoire différente : une frustration face à la « négligence éthique » de l'entreprise et à un développement technologique stagnant. « Nous étions coincés dans la phase de rattrapage », explique une source. « Bien que nous itérions très rapidement, nous n'avons jamais réussi à arriver à un point du genre : "Oh, nous avons apporté un changement substantiel par rapport à ce qu'OpenAI ou Anthropic ou d'autres entreprises avaient publié." »
Un autre ancien employé, Vahid Kazemi, a déclaré à NBC News avoir travaillé environ douze heures par jour lorsqu'il était dans l'entreprise. « Je veux dire, tout d'abord, les horaires de travail sont dingues. » Mais ce n'est pas seulement une question de burnout. Kazemi a écrit sur X que « tous les laboratoires d'IA construisent exactement la même chose, et c'est ennuyeux. Je pense qu'il y a de la place pour plus de créativité. » Il y a un sentiment de désillusion qui transparaît : l'idée que ce qui devait être une révolution technologique s'est transformé en une course vers le haut où tout le monde copie les mêmes modèles, où l'innovation est sacrifiée à la vitesse d'exécution.
Musk a répondu aux démissions par un message sur X, expliquant que xAI a été « réorganisée » pour « améliorer la vitesse d'exécution », ce qui a « malheureusement nécessité la séparation de certaines personnes ». La formulation est ambiguë : elle laisse entendre que certains ont été licenciés, et non qu'ils sont partis volontairement. Mais les messages publics des démissionnaires semblent indiquer des choix conscients, pas des évictions. La vérité se situe probablement entre les deux : une réorganisation qui a poussé beaucoup de monde à conclure qu'il ne valait plus la peine de rester.
Les raisons de cet exode sont multiples et vont au-delà des questions éthiques. Il y a le contexte du récent scandale de Grok, le chatbot de xAI qui, pendant des semaines, a généré des images sexuellement explicites et non consensuelles de femmes et d'enfants, avant que l'équipe n'intervienne pour le bloquer. La CNN rappelle que Grok a également été enclin à produire des commentaires antisémites en réponse aux messages des utilisateurs. Ce sont précisément ces épisodes qui minent la confiance interne : quand la sécurité devient un ajout après coup au lieu d'un principe de conception.
La guerre des talents dévore ses enfants
L'ironie est que cette hémorragie de cerveaux se produit au moment de la compétition maximale pour les talents de l'IA. Le secteur vit une paradoxale « talent war » où les entreprises se disputent les chercheurs avec des rémunérations astronomiques, pour les voir partir au bout de quelques mois. Meta a perdu des chercheurs qui sont retournés chez OpenAI après seulement un mois. Apple a vu quatre experts en IA ou plus quitter l'entreprise pour Meta et Google DeepMind, minant le projet déjà chancelant Apple Intelligence. C'est comme si l'industrie avait créé un système dans lequel le capital humain le plus précieux est brûlé par la pression même qui devrait le valoriser.
Les chercheurs ne se contentent pas de changer d'entreprise : beaucoup fondent leurs propres startups ou, comme Sharma, quittent complètement le secteur. Il y a une différence qualitative entre un transfert et une défection. Lorsque Geoffrey Hinton, le « Parrain de l'IA », a quitté Google en 2023, il a commencé à parler publiquement des risques existentiels de l'IA : bouleversement économique massif, manipulation de l'information, impossibilité de distinguer le vrai du faux. Hinton avait un incitatif financier à gonfler le pouvoir de ses propres produits, et pourtant il a choisi de devenir un critique du système qu'il avait contribué à construire.
La même dynamique s'est répétée en 2024 avec Jan Leike et Ilya Sutskever, qui ont quitté OpenAI après la dissolution de l'équipe Superalignment. Leike a écrit sur X qu'il avait eu des « désaccords avec la direction d'OpenAI sur les priorités fondamentales de l'entreprise depuis un certain temps, jusqu'à ce que nous atteignions finalement un point de rupture ». L'équipe Superalignment avait pour mission de garantir que les systèmes d'IA superintelligents soient sûrs et contrôlables. Quelques mois plus tard, en septembre 2024, OpenAI a créé une nouvelle équipe Mission Alignment pour promouvoir l'objectif de garantir que toute l'humanité bénéficie de la poursuite de l'« intelligence artificielle générale ». Mais ce groupe a également fait long feu : Platformer a révélé qu'OpenAI l'a dissous en février 2026, à peine seize mois après sa création. Deux équipes de sécurité consécutives éliminées en deux ans : ce n'est pas une coïncidence, c'est un schéma.
La Silicon Valley perd son centre de gravité
Il y a ensuite une dimension géographique dans cet exode qui mérite attention. Il ne s'agit pas seulement de personnes quittant des entreprises, mais de talents quittant les États-Unis. Le phénomène de la fuite des cerveaux américaine est réel et quantifiable. Nature a analysé les données de son propre portail d'emploi, découvrant qu'entre janvier et mars 2025, les scientifiques américains ont déposé 32 % de candidatures de plus pour des postes à l'étranger par rapport à la même période en 2024.
Plus significatif encore : selon les données de l'European Research Council, les demandes de chercheurs américains pour les prestigieuses bourses ERC — des financements européens prestigieux pour la recherche fondamentale (frontier research) destinés à des chercheurs de toute nationalité et de tout âge, dans le but de soutenir des projets innovants en Europe — ont augmenté de 120 % au cours de l'année dernière, avec un bond particulièrement spectaculaire pour les Advanced Grants, passant de 23 à 114 demandes. Ces données suggèrent une inversion historique : pendant des décennies, le flux se dirigeait vers la Silicon Valley, il change maintenant de direction.
Les raisons sont diverses. Il y a ceux qui recherchent des écosystèmes moins frénétiques, où la recherche n'est pas subordonnée aux pressions trimestrielles des investisseurs. Il y a ceux qui sont attirés par des projets d'« IA souveraine » dans des pays comme l'Inde, le Royaume-Uni, Singapour et l'Europe, qui investissent massivement pour ne pas dépendre de la technologie américaine. Et il y a ceux qui veulent simplement travailler dans des contextes où le débat sur la sécurité n'est pas vu comme un obstacle au business, mais comme partie intégrante du développement.
San Francisco elle-même, capitale incontestée de l'IA, vit une transformation. Des entreprises comme Replit et Intel ont quitté la Bay Area. Les bureaux se vident, non seulement à cause du télétravail, mais parce que des organisations entières repensent leur présence dans la région. C'est un processus lent mais visible, qui rappelle les cycles précédents de déclin et de renaissance de la technologie californienne.
Ce qu'il reste quand les visionnaires s'en vont
Les implications de cet exode dépassent les cas individuels. Lorsque les chercheurs qui connaissent le mieux ces systèmes décident de partir, ils emportent avec eux non seulement des compétences techniques, mais aussi une mémoire institutionnelle, une compréhension profonde des risques, une capacité à anticiper les problèmes. Les entreprises peuvent embaucher de nouveaux talents, mais la continuité est perdue. Et pendant ce temps, la course vers des modèles de plus en plus puissants ne ralentit pas.
OpenAI prépare son introduction en bourse, tout comme Anthropic, qui vise une valorisation de 350 milliards de dollars. xAI a fusionné avec SpaceX dans ce qui pourrait être la plus grande introduction en bourse de l'histoire. La pression pour démontrer la croissance, les profits, le retour sur investissement s'intensifie. Dans ce contexte, les voix critiques deviennent encombrantes. Pas nécessairement parce que les entreprises sont malveillantes, mais parce qu'elles opèrent au sein d'un système qui récompense la vitesse plus que la prudence, le lancement de produits plus que la réflexion sur les conséquences.
Les solutions proposées par les experts existent, mais elles nécessitent des changements structurels. En Californie, le projet de loi SB 53 est en discussion ; il renforcerait les protections pour les lanceurs d'alerte (whistleblowers) du secteur technologique, c'est-à-dire les employés et chercheurs qui dénoncent publiquement des problèmes éthiques ou de sécurité dans leur entreprise, risquant ainsi des représailles et des licenciements. Mais ces initiatives progressent lentement, alors que l'innovation technologique va à une vitesse exponentielle.
Le PDG d'HyperWrite, Matt Shumer, a récemment posté un long texte sur X affirmant que les modèles les plus récents d'IA ont déjà rendu obsolètes certains emplois technologiques. « Nous vous disons ce qui s'est déjà passé dans nos propres emplois », a-t-il écrit, « et nous vous avertissons que vous êtes les prochains. » C'est le genre de prophétie qui sert à promouvoir un produit, mais elle contient aussi un noyau de vérité dérangeant : ces systèmes changent le marché du travail plus vite que nous ne sommes capables de nous adapter.
Ce que tout cela signifie pour l'avenir de l'IA est une question ouverte. Peut-être assistons-nous à une sélection naturelle : les personnes les plus sensibles aux questions éthiques partent, tandis que les plus orientées vers le résultat restent. Ou peut-être est-ce le début d'une bifurcation du secteur : d'un côté, des entreprises qui marchent vers une commercialisation agressive ; de l'autre, une nouvelle génération de laboratoires plus petits, plus éthiques, moins obsédés par la croissance. Ou encore, cela pourrait être le symptôme d'un système qui atteint ses limites, où la tension entre puissance technologique et responsabilité morale devient insupportable.
Les questions qui restent sont celles que Sharma, Hitzig, Beiermeister et les autres ont laissées sur la table : pouvons-nous développer des systèmes de plus en plus puissants tout en gardant le contrôle sur leurs effets ? Les entreprises peuvent-elles vraiment « laisser les valeurs gouverner les actions » quand les incitatifs financiers poussent dans la direction opposée ? Et si la réponse est non, qui devrait prendre ces décisions à leur place ? Ce ne sont pas des questions rhétoriques, ce sont les dilemmes concrets auxquels ceux qui restent devront faire face. Pour l'instant, nous savons seulement que certains des meilleurs cerveaux du secteur ont décidé que rester n'en valait plus la peine. Et cela, en soi, devrait nous faire réfléchir.