Notizie IA Logo

AITalk

Notizie ed analisi sull'Intelligenza Artificiale

L'esodo silenzioso: quando i creatori dell'AI abbandonano la nave

Ethics & SocietyBusinessSecurity
Video

esodo-silenzioso.jpg

Pochi giorni fa abbiamo raccontato di Zoë Hitzig, la ricercatrice di OpenAI che ha sbattuto la porta dopo l'annuncio della pubblicità su ChatGPT. Non un episodio isolato. Infatti febbraio 2026 si sta rivelando il mese delle dimissioni eccellenti, una sequenza di addii ad alto profilo che sta ridisegnando la mappa dell'intelligenza artificiale. Non si tratta di semplice turnover, quello è fisiologico in Silicon Valley. È qualcosa di diverso, più profondo: i ricercatori stanno abbandonando le aziende proprio mentre annunciano modelli sempre più potenti, valutazioni miliardarie e piani di quotazione in borsa. Come quando i marinai esperti cominciano a scendere dalla nave prima ancora che siano evidenti le crepe nello scafo.

Febbraio, il mese delle dimissioni

La cronaca degli ultimi giorni assomiglia a una di quelle sequenze accelerate nei film in cui vedi le stagioni cambiare attraverso la finestra. Il 9 febbraio, Mrinank Sharma annuncia su X le sue dimissioni da Anthropic con una lettera che suona più come un manifesto esistenziale che come un normale preavviso aziendale. Sharma guidava il Safeguards Research Team, il gruppo che si occupa di difendere Claude da utilizzi malevoli. La sua lettera, infarcita di citazioni poetiche e riferimenti filosofici, contiene un passaggio che ha fatto il giro del web: "Il mondo è in pericolo. E non solo dall'IA o dalle armi biologiche, ma da un'intera serie di crisi interconnesse che si stanno manifestando proprio in questo momento".

Il tono è apocalittico, ma Sharma non parla solo di scenari futuribili. C'è un altro passaggio, più tagliente, che riguarda l'esperienza concreta dentro Anthropic: "Durante il mio tempo qui, ho visto ripetutamente quanto sia difficile lasciare che i nostri valori governino realmente le nostre azioni. L'ho visto in me stesso, nell'organizzazione, dove affrontiamo costantemente pressioni per mettere da parte ciò che conta di più". La CNN riporta che Anthropic, interpellata, ha precisato che Sharma non era il responsabile della safety in senso generale, ma la distinzione sembra più una difesa legale che una sostanziale negazione del problema.

Due giorni dopo, l'11 febbraio, è il turno di Zoë Hitzig. La sua lettera pubblicata sul New York Times non lascia spazio a interpretazioni ambigue: le sue "profonde riserve" riguardano la strategia pubblicitaria emergente di OpenAI. Il punto non è ideologico, è pratico: ChatGPT custodisce conversazioni in cui le persone hanno condiviso "paure mediche, problemi relazionali, credenze su Dio e sull'aldilà". Questa intimità, costruita sulla fiducia in un programma senza secondi fini, diventa problematica nel momento in cui quell'archivio diventa strumento di monetizzazione. Hitzig avverte che la tecnologia ha "un potenziale per manipolare gli utenti in modi per cui non abbiamo gli strumenti per capire, figuriamoci prevenire".

Il caso di Ryan Beiermeister è ancora più emblematico della tensione tra safety e business. Vicepresidente delle policy di prodotto in OpenAI, è stata licenziata a gennaio dopo essersi opposta al lancio di una "adult mode" che consentirebbe contenuti sessuali espliciti su ChatGPT. Ufficialmente per discriminazione sessuale contro un collega maschio, accusa che lei definisce "assolutamente falsa". OpenAI sostiene che il licenziamento "non è legato a nessuna questione da lei sollevata durante il lavoro in azienda". Ma il timing è sospetto, e il Wall Street Journal nota che Beiermeister aveva avviato un programma di mentoring per donne in azienda proprio all'inizio del 2025. Il contesto è quello di un'amministrazione statunitense che sta facendo pressioni contro le iniziative di diversità e inclusione. Come nota il giornalista tech Brian Merchant con sardonica lucidità, "i dirigenti tech hanno finalmente accumulato il loro massimo potere a lungo sognato: licenziare sommariamente chiunque parli male del loro desiderio di fare sesso con i robot".

Dal laboratorio al precipizio

Ma è xAI, la startup di Elon Musk, a offrire il quadro più drammatico. Nel giro di pochi giorni, tra il 9 e l'11 febbraio, sei co-fondatori su dodici hanno annunciato la loro uscita dall'azienda. Tony Wu e Jimmy Ba, entrambi co-fondatori, se ne vanno a distanza di poche ore l'uno dall'altro. Wu guidava il team di reasoning, Ba quello di research e safety. I loro post di addio sono cordiali, grati, pieni di ringraziamenti a Musk. Ma gli ex dipendenti che hanno parlato con The Verge raccontano una storia diversa: frustrazione per la "negligenza etica" dell'azienda e per uno sviluppo tecnologico stagnante. "Eravamo bloccati nella fase di recupero", spiega una fonte. "Sebbene iterassimo molto velocemente, non siamo mai riusciti ad arrivare a un punto del tipo: 'Oh, abbiamo fatto un cambiamento sostanziale rispetto a ciò che OpenAI o Anthropic o altre aziende avevano rilasciato'".

Un altro ex dipendente, Vahid Kazemi, ha detto a NBC News di aver lavorato circa dodici ore al giorno mentre era in azienda. "Intendo dire, innanzitutto, gli orari di lavoro sono folli". Ma non è solo questione di burnout. Kazemi ha scritto su X che "tutti i laboratori di IA stanno costruendo esattamente la stessa cosa, ed è noioso. Penso ci sia spazio per più creatività". C'è un senso di disillusione che traspare: l'idea che quella che doveva essere una rivoluzione tecnologica si sia trasformata in una gara al rialzo dove tutti copiano gli stessi modelli, dove l'innovazione è sacrificata alla velocità di esecuzione.

Musk ha risposto alle dimissioni con un post su X, spiegando che xAI è stata "riorganizzata" per "migliorare la velocità di esecuzione", il che "purtroppo ha richiesto la separazione da alcune persone". La formulazione è ambigua: lascia intendere che alcuni siano stati licenziati, non che se ne siano andati volontariamente. Ma i post pubblici dei dimissionari sembrano indicare scelte consapevoli, non estromissioni. La verità probabilmente sta nel mezzo: una riorganizzazione che ha spinto molti a concludere che non valeva più la pena restare.

Le ragioni di questo esodo sono molteplici e vanno oltre le questioni etiche. C'è il contesto del recente scandalo di Grok, il chatbot di xAI che per settimane ha generato immagini sessualmente esplicite e non consensuali di donne e bambini, prima che il team intervenisse per bloccarlo. La CNN ricorda che Grok è stato anche incline a produrre commenti antisemiti in risposta ai prompt degli utenti. Sono proprio questi episodi che minano la fiducia interna: quando la safety diventa un'aggiunta posticipata invece che un principio di progettazione.

La guerra dei talenti divora i suoi figli

L'ironia è che questa emorragia di cervelli avviene nel momento di massima competizione per i talenti dell'IA. Il settore vive una paradossale talent war dove le aziende si contendono ricercatori con compensi astronomici, solo per vederli andarsene dopo pochi mesi. Meta ha perso ricercatori che sono tornati a OpenAI dopo appena un mese. Apple ha visto quattro o più esperti di IA lasciare l'azienda verso Meta e Google DeepMind, minando il già traballante progetto Apple Intelligence. È come se l'industria avesse creato un sistema in cui il capitale umano più prezioso viene bruciato dalla pressione stessa che dovrebbe valorizzarlo.

I ricercatori non stanno solo cambiando azienda: molti stanno fondando proprie startup o, come Sharma, uscendo del tutto dal settore. C'è una differenza qualitativa tra un trasferimento e una defezione. Quando Geoffrey Hinton, il "Padrino dell'IA", lasciò Google nel 2023, iniziò a parlare pubblicamente dei rischi esistenziali dell'IA: sconvolgimento economico di massa, manipolazione dell'informazione, impossibilità di distinguere il vero dal falso. Hinton aveva un incentivo finanziario a gonfiare il potere dei propri prodotti, eppure scelse di diventare un critico del sistema che aveva contribuito a costruire.

La stessa dinamica si è ripetuta nel 2024 con Jan Leike e Ilya Sutskever, che lasciarono OpenAI dopo il dissolvimento del team Superalignment. Leike scrisse su X che aveva "disaccordi con la leadership di OpenAI sulle priorità fondamentali dell'azienda da un po' di tempo, finché finalmente abbiamo raggiunto un punto di rottura". Il team Superalignment aveva il compito di garantire che i sistemi di IA superintelligenti fossero sicuri e controllabili. Pochi mesi dopo, a settembre 2024, OpenAI creò un nuovo team Mission Alignment per promuovere l'obiettivo di garantire che tutta l'umanità benefici del perseguimento dell'"intelligenza artificiale generale". Ma anche questo gruppo ha avuto vita breve: Platformer ha rivelato che OpenAI lo ha sciolto nel febbraio 2026, appena sedici mesi dopo la sua creazione. Due team di safety consecutivi eliminati nel giro di due anni: non è una coincidenza, è un pattern.

La Silicon Valley perde il suo centro di gravità

C'è poi una dimensione geografica in questo esodo che merita attenzione. Non si tratta solo di persone che lasciano aziende, ma di talenti che lasciano gli Stati Uniti. Il fenomeno del brain drain americano è reale e quantificabile. Nature ha analizzato i dati del proprio job board scoprendo che tra gennaio e marzo 2025 gli scienziati statunitensi hanno presentato il 32% in più di domande per posizioni all'estero rispetto allo stesso periodo del 2024.

Ancora più significativo: secondo i dati dell'European Research Council, le domande da parte di ricercatori statunitensi per i prestigiosi grant ERC, prestigiosi finanziamenti europei per la ricerca di base (frontier research) rivolti a ricercatori di qualsiasi nazionalità ed età, con l'obiettivo di sostenere progetti innovativi in Europa, sono aumentate del 120% nell'ultimo anno, con un balzo particolarmente drammatico negli Advanced Grants, passati da 23 a 114 richieste. Questi dati suggeriscono un'inversione storica: per decenni il flusso è andato verso la Silicon Valley, ora sta cambiando direzione.

Le ragioni sono diverse. C'è chi cerca ecosistemi meno frenetici, dove la ricerca non sia subordinata alle pressioni trimestrali degli investitori. C'è chi è attratto da progetti di "IA sovrana" in paesi come India, Regno Unito, Singapore ed Europa, che stanno investendo massicciamente per non dipendere dalla tecnologia americana. E c'è chi semplicemente vuole lavorare in contesti dove il dibattito sulla sicurezza non sia visto come un ostacolo al business, ma come parte integrante dello sviluppo.

La stessa San Francisco, capitale indiscussa dell'IA, sta vivendo una trasformazione. Aziende come Replit e Intel hanno lasciato la Bay Area. Gli uffici si svuotano, non solo per il lavoro remoto, ma perché intere organizzazioni stanno ripensando la loro presenza nella regione. È un processo lento ma visibile, che ricorda i cicli precedenti di declino e rinascita della tecnologia californiana.

Cosa resta quando i visionari se ne vanno

Le implicazioni di questo esodo vanno oltre i singoli individui. Quando i ricercatori che conoscono meglio questi sistemi decidono di andarsene, portano con sé non solo competenze tecniche, ma memoria istituzionale, comprensione profonda dei rischi, capacità di anticipare problemi. Le aziende possono assumere nuovi talenti, ma la continuità si perde. E nel frattempo, la corsa verso modelli sempre più potenti non rallenta.

OpenAI sta preparando la sua IPO, così come Anthropic, che punta a una valutazione di 350 miliardi di dollari. xAI si è fusa con SpaceX in quella che potrebbe essere la più grande IPO della storia. La pressione a dimostrare crescita, profitti, ritorno sugli investimenti si intensifica. In questo contesto, le voci critiche diventano scomode. Non necessariamente perché le aziende siano malvagie, ma perché operano dentro un sistema che premia la velocità più della prudenza, il lancio di prodotti più della riflessione sulle conseguenze.

Le soluzioni proposte dagli esperti esistono, ma richiedono cambiamenti strutturali. In California è in discussione l'SB 53, una legge che rafforzerebbe le protezioni per i whistleblower del settore tech, ossia per quei dipendenti e ricercatori che denunciano pubblicamente problemi etici o di sicurezza nelle loro aziende, rischiando ritorsioni e licenziamenti. Ma queste iniziative procedono lentamente, mentre l'innovazione tecnologica va a velocità esponenziale.

Il CEO di HyperWrite, Matt Shumer, ha postato da poco un lungo testo su X sostenendo che i modelli più recenti di IA hanno già reso obsoleti alcuni lavori tech. "Vi stiamo dicendo cosa è già accaduto nei nostri stessi lavori", ha scritto, "e vi stiamo avvertendo che siete i prossimi". È il tipo di profezia che serve a promuovere un prodotto, ma contiene anche un nucleo di verità scomoda: questi sistemi stanno cambiando il mercato del lavoro più velocemente di quanto siamo in grado di adattarci.

Cosa significhi tutto questo per il futuro dell'IA è una domanda aperta. Forse stiamo assistendo a una selezione naturale: le persone più sensibili alle questioni etiche escono, mentre quelle più orientate al risultato restano. O forse è l'inizio di una biforcazione del settore: da una parte aziende che marciano verso la commercializzazione aggressiva, dall'altra una nuova generazione di laboratori più piccoli, più etici, meno ossessionati dalla crescita. O ancora, potrebbe essere il sintomo di un sistema che sta raggiungendo i suoi limiti, dove la tensione tra potere tecnologico e responsabilità morale diventa insostenibile.

Le domande che restano sono quelle che Sharma, Hitzig, Beiermeister e gli altri hanno lasciato sul tavolo: possiamo sviluppare sistemi sempre più potenti mantenendo il controllo sui loro effetti? Le aziende possono davvero "lasciare che i valori governino le azioni" quando gli incentivi finanziari spingono nella direzione opposta? E se la risposta è no, chi dovrebbe prendere queste decisioni al posto loro? Non sono domande retoriche, sono i dilemmi concreti con cui chi resta dovrà fare i conti. Per ora, sappiamo solo che alcuni dei migliori cervelli del settore hanno deciso che restare non valeva più la pena. E questo, di per sé, dovrebbe farci riflettere.