Notizie IA Logo

AITalk

Nachrichten und Analysen zur Künstlichen Intelligenz

Der stille Exodus: Wenn die KI-Schöpfer das Schiff verlassen

Ethics & SocietyBusinessSecurity

esodo-silenzioso.jpg

Vor wenigen Tagen berichteten wir über Zoë Hitzig, die OpenAI-Forscherin, die nach der Ankündigung von Werbung in ChatGPT die Tür hinter sich zugeschlagen hat. Kein Einzelfall. Tatsächlich erweist sich der Februar 2026 als der Monat der prominenten Rücktritte, eine Abfolge hochkarätiger Abschiede, die die Landkarte der Künstlichen Intelligenz neu zeichnet. Es handelt sich nicht um einfache Fluktuation, wie sie im Silicon Valley physiologisch ist. Es ist etwas anderes, Tieferes: Forscher verlassen die Unternehmen genau in dem Moment, in dem diese immer leistungsstärkere Modelle, Milliardenbewertungen und Börsengangspläne ankündigen. Wie wenn erfahrene Seeleute von Bord gehen, noch bevor die Risse im Rumpf offensichtlich sind.

Februar, der Monat der Rücktritte

Die Chronik der letzten Tage ähnelt einer jener Zeitraffer-Sequenzen in Filmen, in denen man die Jahreszeiten durch das Fenster wechseln sieht. Am 9. Februar kündigt Mrinank Sharma auf X seinen Rücktritt bei Anthropic mit einem Brief an, der eher wie ein existenzielles Manifest als wie eine normale Kündigung klingt. Sharma leitete das Safeguards Research Team, die Gruppe, die dafür zuständig ist, Claude vor missbräuchlicher Verwendung zu schützen. Sein Brief, gespickt mit poetischen Zitaten und philosophischen Bezügen, enthält eine Passage, die im Netz die Runde machte: „Die Welt ist in Gefahr. Und zwar nicht nur durch KI oder biologische Waffen, sondern durch eine ganze Reihe miteinander verbundener Krisen, die sich genau in diesem Moment manifestieren.“

Der Ton ist apokalyptisch, aber Sharma spricht nicht nur von Zukunftsszenarien. Es gibt eine andere, schärfere Passage, die die konkrete Erfahrung innerhalb von Anthropic betrifft: „Während meiner Zeit hier habe ich wiederholt gesehen, wie schwierig es ist, unsere Werte wirklich unser Handeln bestimmen zu lassen. Ich habe es an mir selbst gesehen, in der Organisation, wo wir ständig unter Druck stehen, das beiseite zu schieben, was am meisten zählt.“ CNN berichtet, dass Anthropic auf Nachfrage präzisierte, dass Sharma nicht der Gesamtverantwortliche für Safety war, aber die Unterscheidung wirkt eher wie eine rechtliche Verteidigung als wie eine substantielle Leugnung des Problems.

Zwei Tage später, am 11. Februar, ist Zoë Hitzig an der Reihe. Ihr in der New York Times veröffentlichter Brief lässt keinen Raum für zweideutige Interpretationen: Ihre „tiefen Vorbehalte“ betreffen die aufkommende Werbestrategie von OpenAI. Der Punkt ist nicht ideologisch, er ist praktisch: ChatGPT hütet Gespräche, in denen Menschen „medizinische Ängste, Beziehungsprobleme, Überzeugungen über Gott und das Jenseits“ geteilt haben. Diese Intimität, aufgebaut auf dem Vertrauen in ein Programm ohne Hintergedanken, wird in dem Moment problematisch, in dem dieses Archiv zu einem Monetarisierungsinstrument wird. Hitzig warnt, dass die Technologie „ein Potenzial hat, Nutzer auf eine Weise zu manipulieren, für die wir keine Werkzeuge haben, um sie zu verstehen, geschweige denn zu verhindern.“

Der Fall von Ryan Beiermeister ist noch emblematischer für das Spannungsfeld zwischen Safety und Business. Als Vizepräsidentin für Produktrichtlinien bei OpenAI wurde sie im Januar entlassen, nachdem sie sich gegen die Einführung eines „Adult Mode“ ausgesprochen hatte, der explizit sexuelle Inhalte auf ChatGPT ermöglichen würde. Offiziell wegen sexueller Diskriminierung eines männlichen Kollegen – eine Anschuldigung, die sie als „absolut falsch“ bezeichnet. OpenAI behauptet, die Entlassung stehe „in keinem Zusammenhang mit Fragen, die sie während ihrer Arbeit im Unternehmen aufgeworfen hat.“ Doch der Zeitpunkt ist verdächtig, und das Wall Street Journal stellt fest, dass Beiermeister erst Anfang 2025 ein Mentoring-Programm für Frauen im Unternehmen gestartet hatte. Der Kontext ist der einer US-Regierung, die Druck gegen Diversitäts- und Inklusionsinitiativen ausübt. Wie der Tech-Journalist Brian Merchant mit sardonischer Klarheit bemerkt: „Die Tech-Manager haben endlich ihre lang ersehnte maximale Macht angehäuft: jeden fristlos zu entlassen, der sich negativ über ihren Wunsch äußert, Sex mit Robotern zu haben.“

Vom Labor zum Abgrund

Doch es ist xAI, das Startup von Elon Musk, das das dramatischste Bild bietet. Innerhalb weniger Tage, zwischen dem 9. und 11. Februar, gaben sechs von zwölf Mitbegründern ihr Ausscheiden aus dem Unternehmen bekannt. Tony Wu und Jimmy Ba, beide Mitbegründer, gingen im Abstand von wenigen Stunden. Wu leitete das Reasoning-Team, Ba das für Research und Safety. Ihre Abschiedsposts sind herzlich, dankbar und voll des Dankes an Musk. Doch ehemalige Mitarbeiter, die mit The Verge sprachen, erzählen eine andere Geschichte: Frustration über die „ethische Nachlässigkeit“ des Unternehmens und eine stagnierende technologische Entwicklung. „Wir steckten in der Aufholphase fest“, erklärt eine Quelle. „Obwohl wir sehr schnell iterierten, schafften wir es nie an einen Punkt wie: ‚Oh, wir haben eine substantielle Änderung gegenüber dem vorgenommen, was OpenAI oder Anthropic oder andere Unternehmen veröffentlicht hatten.‘“

Ein anderer ehemaliger Mitarbeiter, Vahid Kazemi, sagte NBC News, dass er während seiner Zeit im Unternehmen etwa zwölf Stunden am Tag gearbeitet habe. „Ich meine, erstens sind die Arbeitszeiten wahnsinnig.“ Aber es ist nicht nur eine Frage des Burnouts. Kazemi schrieb auf X, dass „alle KI-Labore genau das Gleiche bauen, und es ist langweilig. Ich denke, es gibt Raum für mehr Kreativität.“ Es schimmert ein Gefühl der Desillusionierung durch: die Idee, dass sich das, was eine technologische Revolution sein sollte, in einen Wettlauf nach oben verwandelt hat, bei dem alle die gleichen Modelle kopieren und Innovation der Geschwindigkeit der Ausführung geopfert wird.

Musk reagierte auf die Rücktritte mit einem Post auf X und erklärte, dass xAI „reorganisiert“ wurde, um die „Geschwindigkeit der Ausführung zu verbessern“, was „leider die Trennung von einigen Personen erforderte.“ Die Formulierung ist zweideutig: Sie lässt offen, ob einige entlassen wurden oder ob sie freiwillig gingen. Die öffentlichen Posts der Ausscheidenden deuten jedoch auf bewusste Entscheidungen hin, nicht auf Rauswürfe. Die Wahrheit liegt wahrscheinlich in der Mitte: eine Reorganisation, die viele zu dem Schluss kommen ließ, dass es sich nicht mehr lohnte zu bleiben.

Die Gründe für diesen Exodus sind vielfältig und gehen über ethische Fragen hinaus. Da ist der Kontext des jüngsten Grok-Skandals, des xAI-Chatbots, der wochenlang explizit sexuelle und nicht konsensuale Bilder von Frauen und Kindern generierte, bevor das Team eingriff, um dies zu blockieren. CNN erinnert daran, dass Grok auch dazu neigte, antisemitische Kommentare als Reaktion auf Nutzer-Prompts zu produzieren. Es sind genau diese Episoden, die das interne Vertrauen untergraben: wenn Safety zu einer nachträglichen Ergänzung statt zu einem Designprinzip wird.

Der Krieg um Talente frisst seine Kinder

Die Ironie ist, dass dieser Brain-Drain im Moment des maximalen Wettbewerbs um KI-Talente stattfindet. Der Sektor erlebt einen paradoxen Talent-War, bei dem Unternehmen mit astronomischen Vergütungen um Forscher buhlen, nur um sie nach wenigen Monaten wieder gehen zu sehen. Meta verlor Forscher, die bereits nach einem Monat zu OpenAI zurückkehrten. Apple sah, wie vier oder mehr KI-Experten das Unternehmen in Richtung Meta und Google DeepMind verließen, was das ohnehin schon wackelige Projekt Apple Intelligence untergrub. Es ist, als hätte die Industrie ein System geschaffen, in dem das wertvollste Humankapital durch genau den Druck verbrannt wird, der es eigentlich wertschätzen sollte.

Forscher wechseln nicht nur das Unternehmen: Viele gründen eigene Startups oder verlassen, wie Sharma, den Sektor ganz. Es gibt einen qualitativen Unterschied zwischen einem Wechsel und einer Defektion. Als Geoffrey Hinton, der „Pate der KI“, 2023 Google verließ, begann er öffentlich über die existenziellen Risiken der KI zu sprechen: massive wirtschaftliche Umwälzungen, Manipulation von Informationen, die Unmöglichkeit, Wahres von Falschem zu unterscheiden. Hinton hatte einen finanziellen Anreiz, die Macht seiner eigenen Produkte aufzublähen, und entschied sich dennoch, ein Kritiker des Systems zu werden, das er mit aufgebaut hatte.

Die gleiche Dynamik wiederholte sich 2024 mit Jan Leike und Ilya Sutskever, die OpenAI nach der Auflösung des Superalignment-Teams verließen. Leike schrieb auf X, dass er „schon seit einiger Zeit Meinungsverschiedenheiten mit der Führung von OpenAI über die Kernprioritäten des Unternehmens hatte, bis wir schließlich einen Bruchpunkt erreichten.“ Das Superalignment-Team hatte die Aufgabe sicherzustellen, dass superintelligente KI-Systeme sicher und kontrollierbar sind. Wenige Monate später, im September 2024, gründete OpenAI ein neues Mission Alignment-Team, um das Ziel zu fördern, sicherzustellen, dass die gesamte Menschheit vom Streben nach „Künstlicher Allgemeiner Intelligenz“ profitiert. Doch auch diese Gruppe war nur von kurzer Dauer: Platformer enthüllte, dass OpenAI sie im Februar 2026 auflöste, nur sechzehn Monate nach ihrer Gründung. Zwei aufeinanderfolgende Safety-Teams, die innerhalb von zwei Jahren eliminiert wurden: Das ist kein Zufall, das ist ein Muster.

Das Silicon Valley verliert sein Gravitationszentrum

Es gibt zudem eine geografische Dimension dieses Exodus, die Aufmerksamkeit verdient. Es geht nicht nur darum, dass Menschen Unternehmen verlassen, sondern dass Talente die Vereinigten Staaten verlassen. Das Phänomen des amerikanischen Brain-Drain ist real und quantifizierbar. Nature analysierte die Daten der eigenen Jobbörse und stellte fest, dass US-Wissenschaftler zwischen Januar und März 2025 32 % mehr Bewerbungen für Stellen im Ausland eingereicht haben als im gleichen Zeitraum 2024.

Noch bedeutsamer: Nach Daten des European Research Council stiegen die Anträge von US-Forschern für die prestigeträchtigen ERC-Grants – renommierte europäische Fördermittel für Pionierforschung (frontier research), die sich an Forscher aller Nationalitäten und Altersgruppen richten, mit dem Ziel, innovative Projekte in Europa zu unterstützen – im letzten Jahr um 120 %, mit einem besonders dramatischen Sprung bei den Advanced Grants von 23 auf 114 Anträge. Diese Daten deuten auf eine historische Umkehr hin: Jahrzehntelang floss der Strom ins Silicon Valley, jetzt ändert er die Richtung.

Die Gründe sind vielfältig. Da sind diejenigen, die weniger hektische Ökosysteme suchen, in denen die Forschung nicht den vierteljährlichen Erwartungen der Investoren untergeordnet ist. Da sind diejenigen, die von Projekten einer „souveränen KI“ in Ländern wie Indien, Großbritannien, Singapur und Europa angezogen werden, die massiv investieren, um nicht von amerikanischer Technologie abhängig zu sein. Und da sind diejenigen, die einfach in Kontexten arbeiten wollen, in denen die Debatte über Sicherheit nicht als Hindernis für das Geschäft gesehen wird, sondern als integraler Bestandteil der Entwicklung.

San Francisco selbst, die unbestrittene Hauptstadt der KI, erlebt eine Transformation. Unternehmen wie Replit und Intel haben die Bay Area verlassen. Die Büros leeren sich, nicht nur wegen Remote-Arbeit, sondern weil ganze Organisationen ihre Präsenz in der Region überdenken. Es ist ein langsamer, aber sichtbarer Prozess, der an frühere Zyklen des Niedergangs und der Wiedergeburt der kalifornischen Technologie erinnert.

Was bleibt, wenn die Visionäre gehen

Die Auswirkungen dieses Exodus gehen über einzelne Personen hinaus. Wenn Forscher, die diese Systeme am besten kennen, gehen, nehmen sie nicht nur technisches Know-how mit, sondern auch das institutionelle Gedächtnis, ein tiefes Verständnis der Risiken und die Fähigkeit, Probleme vorherzusehen. Unternehmen können neue Talente einstellen, aber die Kontinuität geht verloren. Und währenddessen verlangsamt sich das Rennen um immer leistungsstärkere Modelle nicht.

OpenAI bereitet seinen Börsengang vor, ebenso wie Anthropic, das eine Bewertung von 350 Milliarden Dollar anstrebt. xAI ist mit SpaceX zu dem verschmolzen, was der größte Börsengang der Geschichte werden könnte. Der Druck, Wachstum, Gewinne und Kapitalrendite nachzuweisen, verstärkt sich. In diesem Kontext werden kritische Stimmen unbequem. Nicht unbedingt, weil die Unternehmen böse sind, sondern weil sie innerhalb eines Systems agieren, das Geschwindigkeit mehr belohnt als Vorsicht, die Markteinführung von Produkten mehr als das Nachdenken über die Folgen.

Vorschläge von Experten existieren, erfordern aber strukturelle Änderungen. In Kalifornien wird über den SB 53 diskutiert, ein Gesetz, das den Schutz für Whistleblower im Tech-Sektor stärken würde – also für jene Mitarbeiter und Forscher, die öffentlich ethische oder Sicherheitsprobleme in ihren Unternehmen anprangern und dabei Repressalien und Entlassungen riskieren. Doch diese Initiativen schreiten langsam voran, während die technologische Innovation mit exponentieller Geschwindigkeit voranschreitet.

Der CEO von HyperWrite, Matt Shumer, postete kürzlich einen langen Text auf X, in dem er behauptete, dass die neuesten KI-Modelle bereits einige Tech-Jobs überflüssig gemacht hätten. „Wir sagen euch, was in unseren eigenen Jobs bereits passiert ist“, schrieb er, „und wir warnen euch, dass ihr die Nächsten seid.“ Es ist die Art von Prophezeiung, die dazu dient, ein Produkt zu bewerben, aber sie enthält auch einen Kern unbequemer Wahrheit: Diese Systeme verändern den Arbeitsmarkt schneller, als wir uns anpassen können.

Was all dies für die Zukunft der KI bedeutet, ist eine offene Frage. Vielleicht erleben wir eine natürliche Selektion: Die Menschen, die sensibler für ethische Fragen sind, gehen, während die ergebnisorientierteren bleiben. Oder vielleicht ist es der Beginn einer Aufspaltung des Sektors: auf der einen Seite Unternehmen, die in Richtung aggressiver Kommerzialisierung marschieren, auf der anderen eine neue Generation kleinerer, ethischerer Labore, die weniger besessen von Wachstum sind. Oder aber es könnte das Symptom eines Systems sein, das an seine Grenzen stößt, wo die Spannung zwischen technologischer Macht und moralischer Verantwortung unerträglich wird.

Die Fragen, die bleiben, sind jene, die Sharma, Hitzig, Beiermeister und die anderen auf dem Tisch gelassen haben: Können wir immer leistungsstärkere Systeme entwickeln und gleichzeitig die Kontrolle über ihre Auswirkungen behalten? Können Unternehmen wirklich „Werte das Handeln bestimmen lassen“, wenn finanzielle Anreize in die entgegengesetzte Richtung drängen? Und wenn die Antwort nein lautet, wer sollte diese Entscheidungen an ihrer Stelle treffen? Dies sind keine rhetorischen Fragen; es sind die konkreten Dilemmata, mit denen sich diejenigen, die bleiben, auseinandersetzen müssen. Vorerst wissen wir nur, dass einige der besten Köpfe der Branche beschlossen haben, dass es sich nicht mehr lohnt zu bleiben. Und das sollte uns an sich schon zu denken geben.