Europa spielt sein KI-Spiel (Apply AI Strategy)
Brüssel kündigt die Apply AI Strategy an, um die technologische Abhängigkeit von den USA und China zu verringern. Aber kann Europa zwischen milliardenschweren Ambitionen, regulatorischen Widersprüchen und infrastrukturellen Lücken wirklich zu einem autonomen Akteur im Bereich der künstlichen Intelligenz werden?
Das Spiel wird hart
Es gibt einen Moment, in dem jeder Protagonist eines Open-World-Videospiels erkennt, dass er zu viel Zeit mit Nebenquests verbracht hat, während der Endgegner Erfahrung sammelte. Europa scheint nach Jahren, in denen es Vorschriften zur künstlichen Intelligenz verfasst hat, während die Vereinigten Staaten und China Milliarden in Chips, Sprachmodelle und Rechenzentren investierten, seine Erleuchtung gehabt zu haben. Die Antwort kommt mit einem Namen, der wie ein Terminalbefehl klingt: Apply AI Strategy.
Dies ist nicht nur ein weiteres Dokument mit guten Absichten. Die von der Europäischen Kommission angekündigte Strategie stellt einen radikalen Paradigmenwechsel dar: vom gesetzgebenden Europa zum innovativen Europa. Zumindest versucht Brüssel, das der Welt zu verkaufen. Denn die Realität ist, wie immer, wenn es um Technologie und Geopolitik geht, verdammt viel komplexer als ein Slogan.
Die Financial Times hat den Schleier über diese Strategie gelüftet, die im dritten Quartal 2025 nach einer noch laufenden öffentlichen Konsultation eingeführt werden soll. Das erklärte Ziel ist es, die technologische Abhängigkeit Europas von den Vereinigten Staaten und China zu verringern und den alten Kontinent in einen autonomen Akteur im Bereich der künstlichen Intelligenz zu verwandeln. Der Plan stützt sich auf drei Säulen: sektorale Leitinitiativen für elf Schlüsselindustrien, Maßnahmen zur Stärkung der technologischen Souveränität Europas und ein einzigartiger Governance-Mechanismus, der KI-Anbieter, Industrie, Wissenschaft und den öffentlichen Sektor einbezieht.
Aber es gibt ein grundlegendes Problem, das kein strategisches Dokument verbergen kann: Europa startet mit einem enormen Handicap. Während die Vereinigten Staaten 2023 68 Milliarden Dollar an Risikokapital für KI anzogen, blieb Europa bei 8 Milliarden stehen. Während China Sprachmodelle wie DeepSeek hervorbringt, die die westlichen Annahmen über Kosten und Energieverbrauch in Frage stellen, sehen Europas vielversprechendste Start-ups, wie sie auf der Suche nach Finanzmitteln ins Ausland abwandern. Und während beide Giganten mit einem fast kriegerischen Ansatz Infrastrukturen aufbauen, muss der europäische Kontinent noch entscheiden, ob er dieses Spiel wirklich spielen oder sich nur auf die Rolle des Schiedsrichters beschränken will.
Drei Säulen für einen wackeligen Wolkenkratzer
Die Apply AI-Strategie verspricht, die Europäische Union als weltweit führend bei der Einführung und Innovation von künstlicher Intelligenz zu positionieren. Ein Ehrgeiz, der auf dem Papier großartig klingt, in der Praxis aber mit der Zersplitterung der europäischen Märkte, dem Mangel an Risikokapital und vor allem einer Abhängigkeit von amerikanischen und chinesischen Infrastrukturen kollidiert, die das Ziel der technologischen Souveränität eher wie einen frommen Wunsch als wie eine konkrete Roadmap erscheinen lässt.
Die erste Säule betrifft sektorale Leitinitiativen. Elf wichtige Industriesektoren werden zu privilegierten Laboratorien für die Einführung von KI: von der Fertigung bis zur Luft- und Raumfahrt, von der Sicherheit bis zum Gesundheitswesen, vom öffentlichen Sektor bis zur Energie. Die Idee ist, Exzellenzcluster zu schaffen, in denen künstliche Intelligenz keine Option, sondern das Standardbetriebsparadigma ist. Insbesondere konzentriert sich die Strategie stark auf kleine und mittlere Unternehmen, das Bindegewebe der europäischen Wirtschaft. Denn wenn in Amerika Innovation durch Start-ups entsteht, die in wenigen Monaten Millionen von Dollar verbrennen und auf ein Einhorn hoffen, muss der Weg in Europa anders sein: langsamer, verteilter, nachhaltiger. So sagt es zumindest die Theorie.
Die zweite Säule ist die der technologischen Souveränität, ein Konzept, das in Pressemitteilungen gut klingt, aber in der heutigen technologischen Realität eher einer Chimäre als einem erreichbaren Ziel gleicht. Die Kommission verspricht bereichsübergreifende Maßnahmen, um die strukturellen Herausforderungen bei der Entwicklung und Einführung von KI anzugehen. Übersetzt aus dem Bürokratendeutsch: Brüssel weiß, dass Europa weder die Chips noch die Rechenzentren noch die führenden Sprachmodelle hat, um auf Augenhöhe zu konkurrieren. Und deshalb muss es sie bauen. Von Grund auf. Oder fast.
Hier kommt die dritte Säule ins Spiel: der Governance-Mechanismus. Eine Struktur, die KI-Anbieter, Branchenführer, Wissenschaft und den öffentlichen Sektor zusammenbringen soll, um sicherzustellen, dass politische Maßnahmen in den Bedürfnissen der realen Welt verwurzelt sind. Ein lobenswertes Vorhaben, das aber Gefahr läuft, sich in einen weiteren Diskussionstisch zu verwandeln, an dem alle reden und niemand entscheidet. Die eigentliche Herausforderung wird nicht darin bestehen, die Interessengruppen zur Einigung zu bringen, sondern dies in einem mit der technologischen Entwicklung vereinbaren Zeitrahmen zu tun. Denn während Europa im Ausschuss diskutiert, bringt OpenAI ein neues Modell auf den Markt, Google kündigt einen Durchbruch bei Quantenchips an und DeepSeek zeigt, dass man mit einem Bruchteil der Ressourcen, die alle für notwendig hielten, hochwertige KI machen kann.
Die Apply AI-Strategie wird von einem parallelen Dokument über KI in der Wissenschaft begleitet, das die Einführung künstlicher Intelligenz in verschiedenen wissenschaftlichen Disziplinen fördern soll. Und sie wird komplementär zur Data Union Strategy sein, die für Ende Oktober 2025 geplant ist, eine Initiative, die darauf abzielt, die Verfügbarkeit von hochwertigen, groß angelegten Datensätzen zu gewährleisten, die für das Training von KI-Modellen unerlässlich sind. Denn ohne Daten ist selbst der leistungsstärkste Supercomputer so nutzlos wie ein V12-Motor ohne Benzin.
Der Supercomputer, der uns alle retten sollte
Wenn die Apply AI Strategy die strategische Vision ist, sind die AI Factories der Versuch, ihr Beine zu machen. Oder besser gesagt, Prozessoren. Europa hat entschieden, dass es zur Konkurrenz im Bereich der künstlichen Intelligenz nicht ausreicht, Vorschriften zu schreiben: Man braucht Maschinen. Riesige, leistungsstarke, energiehungrige Maschinen. Supercomputer, die mit amerikanischen und chinesischen Infrastrukturen konkurrieren können.
Und so hat Europa in einem Klima, das zwischen technologischer Begeisterung und geopolitischer Verzweiflung schwankt, JUPITER eingeweiht, seinen ersten Exascale-Supercomputer, der eine Quintillion Operationen pro Sekunde ausführen kann. Das ist keine Zahl, die man sich leicht vorstellen kann: Wir sprechen von einer Rechenleistung, die bis vor wenigen Jahren reine Science-Fiction war. Das System mit Sitz im Forschungszentrum Jülich in Deutschland wurde von Kommissarin Zaharieva und Bundeskanzler Friedrich Merz eingeweiht und markiert offiziell den Eintritt Europas in die Exascale-Liga des Supercomputings.
Aber JUPITER ist nicht nur ein Denkmal für die wissenschaftliche Berechnung. Er wurde ausdrücklich zur Unterstützung der Entwicklung von KI-Lösungen konzipiert und insbesondere zur Versorgung der JUPITER AI Factory, die im März 2025 als Teil der EuroHPC-Initiative zur Einrichtung von AI Factories in ganz Europa angekündigt wurde. Die Idee ist, diese Rechenleistung Start-ups und KMU zugänglich zu machen, nicht nur Forschungszentren. Den Zugang zu Supercomputern zu demokratisieren, um führende Sprachmodelle zu trainieren, generative KI-Technologien zu entwickeln und mit den amerikanischen Giganten zu konkurrieren, ohne um Kredite bei AWS oder Google Cloud betteln zu müssen.
Das Gemeinsame Unternehmen EuroHPC hat sechs neue Standorte ausgewählt, um zusätzliche AI Factories zu beherbergen: Österreich, Bulgarien, Frankreich, Deutschland, Polen und Slowenien. Eine Gesamtinvestition von 2,1 Milliarden Euro, finanziert von der EU und den Mitgliedstaaten. Diese Standorte werden neue KI-optimierte Supercomputer installieren und bestehende erneuern sowie spezifische Mikroprozessoren für künstliche Intelligenz und Schulungsprogramme entwickeln.
Auf dem Papier ist es ein ehrgeiziger Plan. In der Praxis wirft er eine Reihe unbequemer Fragen auf. Allen voran: Woher kommen die Chips? Denn JUPITER basiert wie fast alle Supercomputer der Welt auf Prozessoren und GPUs, die von amerikanischen oder taiwanesischen Anbietern stammen. Die Lieferkette für Halbleiter wird von einigen wenigen globalen Akteuren kontrolliert, und Europa gehört nicht dazu. Ohne autonome Chips ist das Gerede von technologischer Souveränität eine rhetorische Übung. Europa kann die effizientesten Rechenzentren der Welt bauen, aber wenn die Schlüsselkomponenten aus dem Ausland kommen, bleibt die Abhängigkeit bestehen.
Und dann ist da noch das Energieproblem. Die europäischen Rechenzentren verbrauchen bereits 2,7 % des Stroms in der EU, und bis 2030 wird ein Anstieg um 28 % erwartet. JUPITER und die AI Factories werden eine erhebliche zusätzliche Last darstellen. Wie lassen sich technologische Ambitionen mit Klimazielen vereinbaren? Europa will führend bei nachhaltiger KI sein, aber Spitzen-KI ist von Natur aus energieintensiv. DeepSeek hat gezeigt, dass man effiziente KI machen kann, aber es bleibt abzuwarten, ob das chinesische Modell replizierbar ist oder nur ein glücklicher Ausreißer in einer Landschaft, in der rohe Gewalt der dominierende Parameter bleibt.
Das Dilemma des reuigen Regulierers
Es liegt eine tragikomische Ironie in all dem. Europa hat Jahre damit verbracht, das KI-Gesetz zu entwickeln, den weltweit ersten umfassenden Rechtsrahmen zur Regulierung der künstlichen Intelligenz. Ein Meisterwerk der Regulierungstechnik, gefeiert als Beispiel dafür, wie Technologie gesteuert werden sollte: risikobasiert, menschenzentriert, unter Achtung der Grundrechte. Und jetzt, gerade als das KI-Gesetz in Kraft tritt, macht Brüssel einen Rückzieher.
Eine Analyse des Carnegie Endowment for International Peace hat den Finger in die Wunde gelegt: Europa rutscht in eine deregulierte Wende ab, die die über Jahre hinweg ausgehandelten demokratischen Garantien zu untergraben droht. Der eklatanteste Fall ist die Streichung der KI-Haftungsrichtlinie, ein Vorschlag, der klar festgelegt hätte, wer verantwortlich ist, wenn ein KI-System Schaden verursacht. Es schien die perfekte Ergänzung zum KI-Gesetz zu sein: Letzteres regelt den Markteintritt, die Haftungsrichtlinie hätte die Folgen nach einem Schaden geregelt. Stattdessen wurde sie im Arbeitsprogramm 2025 der Kommission geopfert, auf dem Altar der Wettbewerbsfähigkeit.
Die Botschaft ist klar: Europa will den Tech-Giganten, Investoren und Innovatoren zeigen, dass es ein fantastischer Ort für Geschäfte sein kann. Weniger Bürokratie, mehr Flexibilität, willkommen im neuen europäischen Kurs. Aber dieser Kurswechsel erzeugt einen verheerenden Widerspruch: Wie kann man von technologischer Souveränität sprechen, wenn man dann auf die Instrumente verzichtet, die Rechenschaftspflicht und Transparenz gewährleisten? Wie baut man Vertrauen in KI-Systeme auf, wenn die Opfer von Schäden keinen klaren Rechtsweg haben, um Gerechtigkeit zu erlangen?
Der Carnegie-Bericht ist in seiner Analyse brutal: Europa riskiert, sowohl die technologische Autonomie als auch den regulatorischen Einfluss zu verlieren. Denn wenn man bei den Prinzipien nachgibt, um Innovation zu verfolgen, baut man keine Souveränität auf, sondern importiert einfach das Silicon-Valley-Modell mit zwanzig Jahren Verspätung. Und in der Zwischenzeit machen die echten globalen Akteure weiterhin, was sie wollen, mit oder ohne europäische Vorschriften.
Der äußere Druck ist spürbar. US-Vizepräsident JD Vance forderte Europa auf dem AI Action Summit in Paris im Februar 2025 ausdrücklich auf, die KI-Regulierung zu "lockern". Er war nicht subtil: Er bezeichnete den europäischen Ansatz als einen Überschuss an Bürokratie, der die Innovation erstickt. Und viele in Europa, erschrocken über die wachsende Kluft zu den USA und China, sind versucht, ihm zu glauben. Das Problem ist, dass die Erzählung "zu viel Regulierung = null Innovation" größtenteils ein Mythos ist, der genau von denen gepflegt wird, die ein Interesse daran haben, ohne Einschränkungen zu operieren.
Nehmen wir die DSGVO, die europäische Datenschutz-Grundverordnung. Nach Ansicht vieler amerikanischer Kritiker hätte sie die europäische Innovation im Bereich der KI erdrosseln sollen, da sie den Zugang zu den für das Training von Modellen erforderlichen groß angelegten Daten einschränkt. In Wirklichkeit hat die DSGVO ein Ökosystem geschaffen, in dem das Vertrauen der Nutzer höher, die Datenqualität besser und die Innovation auf datenschutzfreundliche Techniken wie föderiertes Lernen und synthetische Daten konzentriert ist. Es ist nicht der "move fast and break things"-Ansatz von Zuckerberg, aber es ist eine Innovation, die auf langfristige Nachhaltigkeit abzielt.
Und doch ist die Versuchung der Deregulierung groß. Der Draghi-Bericht über die Wettbewerbsfähigkeit Europas, der 2024 veröffentlicht wurde, betonte die Dringlichkeit, die Regulierungslandschaft zu vereinfachen, um nicht zurückzufallen. Und er hat in einem Punkt Recht: Die regulatorische Zersplitterung zwischen den siebenundzwanzig Mitgliedstaaten ist ein echtes Problem. Aber die Notwendigkeit der Harmonisierung mit der Deregulierung schlechthin zu verwechseln, ist ein gefährlicher Fehler. Man innoviert nicht besser, indem man Regeln abschafft, sondern indem man dumme, widersprüchliche, überflüssige Regeln abschafft. Und sie durch klare, vorhersehbare, anwendbare Rahmen ersetzt.
Die Zahlen, die nicht stimmen
Wenn es um technologische Innovation geht, zählt am Ende das Geld. Und hier sind die europäischen Zahlen erschreckend. Der Draghi-Bericht war schonungslos in seiner Bestandsaufnahme: Nur 11 % der europäischen Unternehmen nutzen KI, weit entfernt vom Ziel von 75 % bis 2030. Seit 2017 stammen 73 % der grundlegenden KI-Modelle aus den Vereinigten Staaten und 15 % aus China. Europa ist in diesem Spiel praktisch abwesend. Im Jahr 2023 zog die EU nur 8 Milliarden Dollar an Risikokapital für KI an, verglichen mit 68 Milliarden in den USA und 15 Milliarden in China.
Die vielversprechendsten europäischen Start-ups im Bereich der generativen KI, wie Mistral und Aleph Alpha, haben Schwierigkeiten, aus Mangel an Kapital mit den amerikanischen Giganten zu konkurrieren. 61 % der weltweiten KI-Finanzierung gehen an US-Unternehmen, nur 6 % an europäische. Und so suchen die besten europäischen Unternehmen unweigerlich nach ausländischen Investoren, wenn sie nicht direkt über den Atlantik oder den Pazifik ziehen.
Ursula von der Leyen kündigte auf dem AI Action Summit in Paris ein Upgrade von 8 Milliarden Euro für die AI Factories an, begleitet von einer Investitionsinitiative in Höhe von 50 Milliarden Euro, um die Innovation in der künstlichen Intelligenz zu "überladen". Frankreich hat mit 109 Milliarden Euro an privaten Investitionen nachgelegt. Zahlen, die riesig erscheinen, aber im Vergleich zu den 500 Milliarden Dollar des von der Trump-Administration angekündigten Stargate-Projekts verblassen: eine private Investition unter der Leitung von OpenAI, Oracle, Softbank und MGX, die darauf abzielt, die dominante KI-Infrastruktur des nächsten Jahrzehnts aufzubauen.
Es gibt einen philosophischen Unterschied zwischen den beiden Ansätzen. Das amerikanische Modell wird vom Privatsektor angetrieben, wobei sich die Regierung darauf beschränkt, zu erleichtern: beschleunigte Genehmigungen, garantierter Zugang zu Energie, minimale Regulierung. Das europäische Modell setzt auf eine öffentlich-private Mischung mit einer starken Koordinierungsrolle der Institutionen. Welches wird besser funktionieren? Das hängt davon ab, was man unter "besser" versteht. Wenn das Ziel reine Geschwindigkeit und disruptive Innovation ist, wird wahrscheinlich der amerikanische Ansatz gewinnen. Wenn das Ziel darin besteht, ein KI-Ökosystem zu schaffen, das mit demokratischen Werten, dem Schutz der Rechte und der ökologischen Nachhaltigkeit im Einklang steht, dann macht das europäische Modell Sinn. Aber nur, wenn es ihm gelingt, zu skalieren, und zwar schnell.
Ein Bericht der Bertelsmann Stiftung, der im Februar 2025 veröffentlicht wurde, bezifferte die tatsächlichen Kosten der europäischen digitalen Souveränität: 300 Milliarden Euro im nächsten Jahrzehnt, teilweise durch private Investitionen finanziert. Der Bericht schlägt die Schaffung eines European Sovereign Tech Fund mit einer Anfangsinvestition von 10 Milliarden vor, betont aber, dass das Erreichen einer echten Unabhängigkeit ein massives und koordiniertes Engagement erfordern würde, das alles berührt: von Rohstoffen für Batterien bis hin zu Unternehmenssoftware, von Chips bis hin zu Konnektivität.
Die im Bericht erwähnte EuroStack-Initiative versucht, lokale Kapazitäten entlang der gesamten digitalen Wertschöpfungskette aufzubauen. Ziel ist es, die Abhängigkeit von ausländischen Anbietern zu verringern, indem Sicherheit, Widerstandsfähigkeit und Wettbewerbsfähigkeit gestärkt werden. Im März 2025 unterzeichneten fast hundert Branchenführer, von digitalen KMU bis hin zu Verteidigungsriesen wie Airbus, Dassault Systèmes und OVHcloud, einen offenen Brief an die Kommission, in dem sie eine starke Industriestrategie zur Verringerung der Abhängigkeit Europas von ausländischen digitalen Infrastrukturen forderten. Aber gute Absichten reichen nicht aus. Es braucht konkrete Investitionen, Skalierungsvereinbarungen, koordinierte Industriepolitiken. Und vor allem braucht es Zeit. Ein Luxus, den in der Welt der KI niemand hat.
Das chinesische Paradoxon und der Mythos des Silicon Valley
Im Januar 2025 tat DeepSeek etwas scheinbar Unmögliches: Es brachte ein fortschrittliches Sprachmodell auf den Markt, das einen Bruchteil von ChatGPT kostet und viel weniger Energie verbraucht. Die Nachricht erschütterte die KI-Branche. Denn wenn es stimmt, dass man hochwertige KI machen kann, ohne Milliarden und Gigawatt zu verbrennen, dann könnte der ganze hektische Wettlauf um den Bau immer größerer Rechenzentren eine Sackgasse sein. Oder zumindest ein nicht unvermeidlicher Weg.
DeepSeek zeigt, dass KI-Innovation nicht nur auf roher Gewalt beruht. Sie beruht auch auf algorithmischer Effizienz, auf Open-Source-Ansätzen, auf einer Vision von künstlicher Intelligenz als digitalem öffentlichen Gut und nicht als geistigem Eigentum, das abgeschottet werden muss. Es ist eine Vision, die in China, Indien und Europa Anklang findet, aber dem vorherrschenden Narrativ made in USA entgegensteht.
Denn man muss es klar sagen: Der Mythos des Silicon Valley ist größtenteils eine ideologische Konstruktion. Die Vorstellung, dass der freie Markt, mangelnde Regulierung und das visionäre Genie von Tech-Unternehmern für Innovation ausreichen, ist schlichtweg falsch. Internet, GPS, das Apollo-Programm, die grundlegenden Technologien von Apple sind alle mit massiven öffentlichen Investitionen entstanden. Das Risikokapital kam später, als die Risiken bereits vom Staat getragen worden waren. Und heute privatisieren die Tech-Giganten weiterhin Gewinne, während sie Kosten externalisieren: Steuerhinterziehung, Lobbyarbeit gegen Regulierung, Forderungen nach öffentlichen Subventionen, wenn es ihnen passt.
Meta, Google, OpenAI: Alle positionieren sich neu, um sich an die Trump-Administration anzupassen. Meta hat sein Faktenprüfungsprogramm gestrichen und Trumps Amtseinführung finanziert. Google hat aus seiner Politik die Verpflichtung gestrichen, KI nicht für Waffen und Überwachung einzusetzen, was zu Rücktritten und internen Kontroversen führte. OpenAI, als gemeinnützige Organisation gegründet, versucht, sich als gewinnorientiertes Unternehmen neu zu strukturieren, was zeigt, dass selbst die besten Absichten den Logiken des Risikokapitals nachgeben.
Und dann ist da noch die Frage der Daten. OpenAI und Google üben Druck auf die Trump-Administration aus, das Training von KI mit urheberrechtlich geschützten Daten als "fair use" (angemessene Verwendung) einzustufen, was für die nationale Sicherheit notwendig sei. Ein Schachzug, der den massenhaften Diebstahl von geistigem Eigentum als Patriotismus darstellt. Durchgesickerte Dokumente haben enthüllt, dass Meta heimlich urheberrechtlich geschützte Bücher gesammelt hat, um seine Modelle zu trainieren, was zu Klagen von Autoren führte. Die Verteidigungslinie ist immer dieselbe: Restriktive Urheberrechtsgesetze ersticken die Innovation.
Europa steht vor einem Dilemma: Dieses Modell mit all seinen ethischen Widersprüchen importieren oder eine Alternative suchen? Die Versuchung, nachzugeben, ist groß, besonders wenn die Zahlen sagen, dass man verliert. Aber nachzugeben würde bedeuten, genau das aufzugeben, was langfristig der Wettbewerbsvorteil Europas sein könnte: ein KI-Ökosystem, das auf Transparenz, Rechenschaftspflicht und Achtung der Rechte basiert. Es ist nicht der schnellste Weg, aber es könnte der nachhaltigste sein.
Militärische KI und die Grauzonen der Souveränität
Es gibt einen Elefanten im Raum, den niemand direkt ansprechen will: Künstliche Intelligenz ist per Definition dual-use. Ein Algorithmus, der die Logistik optimiert, kann zur Koordinierung von Drohnenschwärmen eingesetzt werden. Ein Sprachmodell, das den Kundenservice verbessert, kann auf militärische Aufklärung angewendet werden. Die Grenze zwischen zivilen und militärischen Anwendungen ist fließend und wird immer dünner, je allgegenwärtiger KI wird.
Das europäische KI-Gesetz schließt militärische Verwendungen ausdrücklich aus seinem Anwendungsbereich aus. Es war ein notwendiges Zugeständnis, um die Gesetzgebung zu verabschieden, da die Mitgliedstaaten Handlungsfreiheit im Bereich Sicherheit und Verteidigung forderten. Aber dieser Ausschluss schafft eine enorme Regelungslücke. Wie kann man von menschenzentrierter KI sprechen, wenn man dann den Einsatz von tödlichen autonomen Systemen ohne Aufsicht erlaubt? Wie kann man Transparenz gewährleisten, wenn militärische Systeme im Geheimen operieren?
Der Krieg in der Ukraine ist zu einem Live-KI-Labor geworden. Private Unternehmen wie Palantir liefern KI-basierte Überwachungs- und Zielinformationen. Start-ups wie das deutsche Unternehmen Helsing entwickeln Software für Drohnen-Zielsysteme. Das französische Unternehmen Mistral AI arbeitet mit Helsing zusammen, um eine Schlachtfeld-KI zu entwickeln, die Sprachmodelle mit Echtzeitentscheidungen kombiniert. Europa baut schnell eine militärische KI-Industrie auf, aber ohne einen klaren ethischen Rahmen.
Das im März 2025 veröffentlichte Weißbuch zur europäischen Verteidigungsbereitschaft unterstreicht, dass die Zukunft der europäischen Verteidigung von der Fähigkeit abhängt, disruptive Technologien zu nutzen: KI, Quantencomputing, autonome Systeme. Das Dokument erkennt an, dass Drohnen, KI-Robotik und autonome Landfahrzeuge das Schlachtfeld neu definieren. Und dass Europa ein begrenztes Zeitfenster hat, um in diesem Bereich führend zu werden.
Aber es gibt einen tiefen Widerspruch. Europa will der Champion der ethischen KI sein und gleichzeitig in der algorithmischen Militarisierung mit den Vereinigten Staaten, China und Russland konkurrieren. Kann man beides tun? Oder muss man sich entscheiden? Die Antwort ist nicht einfach. Es ist möglich, sich eine europäische Militär-KI vorzustellen, die die Grundsätze der Verhältnismäßigkeit, der menschlichen Aufsicht und der größtmöglichen Transparenz respektiert. Aber es erfordert ein institutionelles Engagement, das bisher gefehlt hat.
Das Risiko besteht darin, dass der KI-Rüstungswettlauf ohne angemessene Kontrollen fortschreitet. Dass tödliche autonome Systeme geschaffen werden, die in der Lage sind, Entscheidungen über Leben und Tod ohne menschliches Eingreifen zu treffen. Dass die Unterscheidung zwischen Kombattanten und Zivilisten, die in der asymmetrischen Kriegsführung bereits schwierig ist, für Algorithmen, die auf Effizienz optimieren, unmöglich zu handhaben wird. Und dass Europa bei der Verfolgung der militärischen Wettbewerbsfähigkeit am Ende genau die Werte verrät, die es auszeichnen.
Realismus oder Kapitulation?
Also, ist die Apply AI Strategy am Ende eine gewinnende Wette oder ein schlecht gespielter Bluff? Die Antwort hängt davon ab, welches Spiel wir glauben, dass Europa spielt.
Wenn das Ziel darin besteht, der neue globale Dominus der künstlichen Intelligenz zu werden und Kopf an Kopf mit den USA und China bei reinen Rechenleistungs- und Marktkapitalisierungsmetriken zu konkurrieren, dann ist die Antwort einfach: Europa hat bereits verloren. Die Kluft ist zu groß, die strukturellen Verzögerungen zu tief, die erforderlichen Investitionen zu gewaltig. Keine Apply AI Strategy kann diese Lücke kurzfristig schließen.
Aber wenn das Ziel darin besteht, ein alternatives KI-Ökosystem aufzubauen, das auf anderen Prinzipien basiert, dann ist das Spiel noch offen. Ein Ökosystem, in dem KI nicht von einigen wenigen Megakonzernen kontrolliert wird, sondern auf KMU, Forschungszentren und öffentliche Einrichtungen verteilt ist. Wo Transparenz und Rechenschaftspflicht keine Optionen, sondern grundlegende Anforderungen sind. Wo Energieeffizienz und ökologische Nachhaltigkeit Priorität haben. Wo Datensätze nicht durch undurchsichtige Praktiken extrahiert, sondern mit der informierten Zustimmung der Nutzer aufgebaut werden.
Ist das eine glaubwürdige Alternative? Die Geschichte der Technologie legt Skepsis nahe. Netzwerkeffekte begünstigen große Akteure. Proprietäre Modelle ziehen mehr Investitionen an als Open-Source-Modelle. Geschwindigkeit schlägt Nachhaltigkeit, zumindest kurzfristig. Aber die Geschichte der Technologie ist nicht deterministisch. Es gibt Momente der Gabelung, in denen politische Entscheidungen und strategische Investitionen den Kurs ändern können.
Europa hat einige Karten zu spielen. Es hat JUPITER und die AI Factories, die, wenn sie gut verwaltet werden, die Recheninfrastruktur für Start-ups und Forscher bereitstellen können. Es hat das KI-Gesetz, das trotz seiner Grenzen und der jüngsten Deregulierungen der fortschrittlichste Rahmen der Welt zur Steuerung der künstlichen Intelligenz bleibt. Es hat einen Binnenmarkt von 450 Millionen Menschen, der die Nachfrage nach zuverlässigen KI-Lösungen generieren kann. Es verfügt über wissenschaftliche Kompetenzen auf höchstem Niveau in den Bereichen maschinelles Lernen, Robotik und Computer Vision.
Aber es hat auch verheerende Schwächen. Die Chip-Lieferkette liegt völlig außerhalb seiner Kontrolle. Das europäische Risikokapital ist ein Bruchteil des amerikanischen. Die Zersplitterung der nationalen Märkte erschwert die Skalierung. Und vor allem fehlt es an einer gemeinsamen Vision: Einige Länder drängen auf eine totale Deregulierung, andere wollen die ethischen Zwänge beibehalten; einige setzen auf nationale Champions, andere bevorzugen die europäische Integration.
Die Starlink-Affäre in der Ukraine hat brutal gezeigt, was technologische Abhängigkeit bedeutet. Als Elon Musk drohte, das von den ukrainischen Streitkräften genutzte Satellitenkommunikationssystem zu deaktivieren, verstand Europa, dass das Vertrauen auf Technologien, die von einzelnen privaten Unternehmen kontrolliert werden, insbesondere wenn sie sich in feindlichen oder instabilen Rechtsordnungen befinden, ein nationales Sicherheitsrisiko darstellt. Die EU versucht nun, der Ukraine zu helfen, Starlink durch europäische Alternativen zu ersetzen, aber es ist ein langsamer und kostspieliger Prozess.
Dies ist die Realität der technologischen Souveränität: Es ist kein abstraktes Konzept aus einer Pressemitteilung, es ist die konkrete Fähigkeit, die kritischen Infrastrukturen zu kontrollieren, auf denen Ihre Wirtschaft, Ihre Verteidigung, Ihre Demokratie basieren. Und Europa hat im Moment diese Fähigkeit im Bereich der KI nicht.
Das (vorläufige) Urteil eines noch offenen Spiels
Die Apply AI Strategy wird im dritten Quartal 2025 eingeführt. In den vorangegangenen Monaten wird es Konsultationen, Verhandlungen und Druck von Industrielobbys und nationalen Regierungen geben. Das endgültige Dokument könnte sich stark von den ursprünglichen Ambitionen unterscheiden. Es könnte so verwässert werden, dass es zu einem weiteren zahnlosen Strategiepapier wird. Oder es könnte zum Wendepunkt werden, auf den Europa seit Jahren wartet.
Die entscheidende Frage ist nicht, ob Europa zum neuen Silicon Valley werden kann. Das kann es nicht, und es sollte es wahrscheinlich auch gar nicht erst versuchen. Die Frage ist, ob es ein alternatives Modell der KI-Innovation aufbauen kann, das wettbewerbsfähig ist, ohne demokratische Werte zu opfern. Ein Modell, bei dem algorithmische Transparenz kein Hindernis, sondern ein Wettbewerbsvorteil ist. Wo Energieeffizienz keine Einschränkung, sondern eine Chance für eine Führungsrolle ist. Wo die rechtliche Haftung für durch KI verursachte Schäden keine Kosten, sondern eine Garantie für Zuverlässigkeit ist.
Die von von der Leyen versprochenen 50 Milliarden Euro sind ein Anfang, aber nur, wenn sie gut ausgegeben werden. Wir brauchen nicht noch mehr Diskussionsrunden, weitere Strategiepapiere, weitere öffentliche Konsultationen. Wir brauchen betriebsbereite Rechenzentren, finanzierte Start-ups, Forscher, die mit wettbewerbsfähigen Gehältern in Europa gehalten werden. Wir brauchen eine Industriestrategie, die klar identifiziert, wo Europa gewinnen kann (KI für die fortschrittliche Fertigung, KI für die Energiewende, KI für das öffentliche Gesundheitswesen) und wo es die Abhängigkeit akzeptieren muss (Spitzenchips, zumindest kurzfristig).
Und wir brauchen eine Dosis Realismus. Absolute technologische Souveränität ist eine Illusion. Kein Land, nicht einmal die Vereinigten Staaten oder China, kontrolliert seine technologische Lieferkette vollständig. Das Ziel ist nicht Autarkie, sondern die Verringerung kritischer Abhängigkeiten und die Erhöhung der Widerstandsfähigkeit. Es geht darum, glaubwürdige Alternativen zu haben, wenn ein externer Anbieter unzuverlässig oder feindselig wird. Es geht darum, ausreichende interne Kapazitäten aufrechtzuerhalten, um sicherzustellen, dass strategische Entscheidungen in europäischer Hand bleiben.
Die Apply AI Strategy, kombiniert mit den AI Factories, der Data Union Strategy und einem KI-Gesetz, das eher gestärkt als geschwächt werden sollte, könnte die Teile eines kohärenten Puzzles darstellen. Aber nur, wenn Europa seine chronische Tendenz zur Zersplitterung und Unentschlossenheit überwindet. Nur wenn die siebenundzwanzig Mitgliedstaaten zustimmen, einen Teil ihrer nationalen Souveränität abzugeben, um eine echte europäische technologische Souveränität aufzubauen. Nur wenn die versprochenen Mittel in konkrete und messbare Projekte umgesetzt werden.
Die Vergangenheit ist nicht ermutigend. Europa hat in den letzten zwanzig Jahren unzählige "digitale Strategien" angekündigt, die fast alle in Vergessenheit geraten oder so schlecht umgesetzt wurden, dass sie irrelevant sind. Aber dieses Mal gibt es vielleicht einen Unterschied. Der geopolitische Kontext hat sich radikal verändert. Der Krieg in der Ukraine, die Spannungen mit China, die Unvorhersehbarkeit der Trump-Administration, die Enthüllung, wie tief die europäischen technologischen Abhängigkeiten sind: All dies hat ein Gefühl der Dringlichkeit geschaffen, das zuvor fehlte.
Wie in diesem Moment eines unmöglichen Bosskampfes, wenn man merkt, dass man die Strategie ändern muss oder es ist Game Over, hat Europa vielleicht endlich verstanden, dass der Status quo nicht nachhaltig ist. Dass man kein relevanter geopolitischer Akteur sein kann, wenn man technologisch von seinen Rivalen abhängig ist. Dass KI nicht nur eine weitere Technologie ist, sondern die kritische Infrastruktur des einundzwanzigsten Jahrhunderts, und wer sie nicht kontrolliert, wird von denen kontrolliert, die sie besitzen.
Das Spiel ist noch offen. Aber die Zeit läuft schnell, und Europa kann es sich nicht mehr leisten, auf der Ersatzbank zu sitzen und das Regelwerk zu schreiben, während andere das Finale spielen.
Quellen
Offizielle Dokumente der Europäischen Union
- Apply AI Strategy - Europäische Kommission
- AI Continent Action Plan - Europäische Kommission
- Data Union Strategy - Europäische Kommission
- European AI Office - Europäische Kommission
- AI Factories - Europäische Kommission
- EuroHPC Joint Undertaking - Europäische Kommission
- JUPITER Supercomputer - Europäische Kommission
- JUPITER AI Factory - Forschungszentrum Jülich
- EuroHPC selects additional AI Factories - EuroHPC JU
- White Paper for European Defence - Europäische Kommission
- European Defence Fund - Europäische Kommission
- The Draghi Report on EU Competitiveness - Europäische Kommission
- Competitiveness Compass - Europäische Kommission
Studien und Analysen
- The EU's AI Power Play: Between Deregulation and Innovation - Carnegie Endowment for International Peace
- EuroStack – a European Alternative for Digital Sovereignty - Bertelsmann Stiftung
- Open Letter: European Industry Calls for Strong Commitment to Sovereign Digital Infrastructure - European DIGITAL SME Alliance
Medien
- EU to unveil new AI strategy to reduce dependence on US and China - Financial Times
- EU Scales Back Tech Rules to Boost AI Investment - Financial Times