Notizie IA Logo

AITalk

Nachrichten und Analysen zur Künstlichen Intelligenz

Das Agenten-Kartell: Wenn Open Source zum präventiven Monopol wird

BusinessEthics & SocietyGenerative AI

agentic-ai-foundation.jpg

Am 9. Dezember 2025 kündigte die Linux Foundation die Gründung der Agentic AI Foundation an, einer Initiative, die OpenAI, Anthropic und Block unter der Ägide einer vermeintlich neutralen Governance zusammenbringt. Die drei Giganten haben ihre strategischsten Projekte gespendet: das Model Context Protocol von Anthropic, das Goose-Framework von Block und AGENTS.md von OpenAI. Begleitet wird die Initiative von Platin-Sponsoren wie AWS, Google, Microsoft, Bloomberg und Cloudflare. Eine Koalition, die so breit ist, dass sie fast verdächtig erscheint.

Die offizielle Pressemitteilung spricht von "Transparenz", "Zusammenarbeit" und "öffentlichem Interesse". Alles beruhigende Begriffe, die eine unbequeme Frage verbergen: Warum gerade jetzt? Und vor allem, warum diese Eile, Standards für eine Technologie zu definieren, die die Regulierungsbehörden noch zu verstehen versuchen?

Die Genealogie des autonomen Agenten

Um den Einsatz zu verstehen, müssen wir einen Schritt zurückgehen. KI-Agenten sind keine theoretische Neuheit: Bereits 2023 zeigten experimentelle Projekte wie Auto-GPT, dass Sprachmodelle so orchestriert werden können, dass sie komplexe Aufgaben autonom ausführen. Aber zwischen einem Experiment auf GitHub und einem Unternehmensprodukt klafft ein Abgrund aus Zuverlässigkeit, Sicherheit und vor allem Interoperabilität.

Das Model Context Protocol, das von Anthropic im November 2024 eingeführt wurde, stellt den ersten ernsthaften Versuch dar, zu standardisieren, wie KI-Agenten mit externen Systemen kommunizieren. Wie David Soria Parra, Mitentwickler von MCP, gegenüber TechCrunch erklärte: "Das Hauptziel ist es, genügend Akzeptanz in der Welt zu erlangen, damit es zum De-facto-Standard wird." Die Akzeptanz war schnell: Laut GitHub-Daten wurden in wenigen Monaten Tausende von MCP-Servern erstellt, mit SDKs für alle wichtigen Programmiersprachen und über 97 Millionen monatlichen Downloads für die Python- und TypeScript-Bibliotheken zusammen.

Goose von Block, das Anfang 2025 veröffentlicht wurde, verfolgt eine Local-First-Philosophie, die den Datenschutz-Paranoikern entgegenkommt. Als Agenten-Framework, das Sprachmodelle mit erweiterbaren Werkzeugen und MCP-basierten Integrationen kombiniert, ermöglicht Goose den Entwicklern die Kontrolle darüber, was wohin gesendet wird. Ein Ansatz, den Manik Surtani, Leiter von Open Source bei Block, beim Start von AAIF so zusammenfasste: "Die Technologie, die das nächste Jahrzehnt definieren wird, kann entweder geschlossen und proprietär zum Nutzen weniger bleiben oder von offenen Standards für alle geleitet werden."

AGENTS.md von OpenAI, das im August 2025 eingeführt wurde, ist vielleicht das einfachste, aber auch das heimtückischste Projekt. Es ist eine Markdown-Datei, die Agenten lesen können, um zu verstehen, wie sie in einem Repository arbeiten sollen: Code-Konventionen, Build-Schritte, Testanforderungen. Laut OpenAI haben es bereits über 60.000 Open-Source-Projekte übernommen, darunter Tools wie Cursor, Devin, GitHub Copilot und VS Code. Eine beeindruckende Zahl für einen Standard, der erst vor vier Monaten ins Leben gerufen wurde.

Wer das Protokoll schreibt, schreibt das Gesetz

Und hier beginnt die offizielle Erzählung zu bröckeln. Denn diese koordinierte Konvergenz hin zu gemeinsamen Standards geschieht zu einem ganz bestimmten Zeitpunkt: wenn die Regulierungsbehörden noch nicht gesetzlich definiert haben, was autonome KI-Agenten sind.

Der EU AI Act, der im August 2024 in Kraft trat, wurde entwickelt, bevor Agenten zum Mainstream wurden. Wie ein Bericht von The Future Society vom Juni 2025 feststellt, "obwohl der AI Act ursprünglich nicht mit KI-Agenten im Sinn konzipiert wurde, stellen wir fest, dass der weltweit umfassendste Regulierungsrahmen für die Steuerung von KI tatsächlich auf Agenten anwendbar ist. Aber es bleiben Lücken." Das zentrale Problem ist, dass das Gesetz KI-Systeme auf der Grundlage eines statischen Risikos kategorisiert, während Agenten dynamisch agieren, sich anpassen und autonome Entscheidungen treffen, die das Risikoniveau je nach Kontext variieren können.

Ein Artikel im European Law Blog beschreibt, was er "Agentic Tool Sovereignty" nennt: die Unmöglichkeit für Staaten und Anbieter, die rechtliche Kontrolle darüber zu behalten, wie KI-Systeme grenzüberschreitende Tools autonom aufrufen und nutzen. Stellen Sie sich ein Rekrutierungssystem in Paris vor, das in fünf Sekunden eine US-amerikanische psychometrische API, einen britischen Verifizierungsdienst, eine singapurische Kompetenzplattform und ein schweizerisches Gehalts-Tool aufruft. Drei Monate später verhängen vier Regulierungsbehörden Geldstrafen. Wer ist verantwortlich? Der Betreiber hatte keinen Einblick in die Datenflüsse, die Audit-Spuren waren unzureichend, der Agent hatte keine geografischen Routing-Kontrollen.

Im September 2025 forderte der Europaabgeordnete Sergey Lagodinsky die Kommission formell auf, zu klären, "wie KI-Agenten reguliert werden". Zum Zeitpunkt des Schreibens dieses Artikels wurde keine öffentliche Antwort veröffentlicht. Dieses regulatorische Vakuum ist der perfekte Spielplatz für diejenigen, die die Regeln schreiben wollen, bevor die Schiedsrichter eintreffen. annuncio.jpg Bild von der Website der Agentic AI Foundation

Anatomie einer strategischen Allianz

Die drei Gründungsprojekte von AAIF sind nicht zufällig gewählt: Sie repräsentieren die kritischen Schichten der Agenten-Infrastruktur. MCP definiert, wie Agenten mit der Außenwelt sprechen. AGENTS.md standardisiert, wie Agenten Arbeitskontexte verstehen. Goose demonstriert, wie diese Teile zu einem funktionierenden Framework zusammengefügt werden. Zusammen decken sie den gesamten Technologie-Stack ab.

Die Spende an die Linux Foundation klingt edel, wirft aber Fragen zur tatsächlichen Governance auf. Die Linux Foundation hat eine umstrittene Geschichte mit Unternehmenseinfluss. Wie The New Stack bereits 2021 berichtete, hat die Stiftung die Möglichkeit für Community-Mitglieder, in den Vorstand gewählt zu werden, aus ihren Statuten gestrichen und die Kontrolle ausschließlich den Unternehmenssponsoren überlassen. Matthew Garrett, ein Beitragender zum Linux-Kernel, prangerte diese Änderung als Aufgabe der Community-Vertretung an.

Jim Zemlin, Geschäftsführer der Linux Foundation, erklärte, dass "ein früher Erfolgsindikator, über die Annahme dieser Standards hinaus, die Entwicklung und Implementierung gemeinsamer Standards wäre, die von Agenten-Anbietern weltweit verwendet werden." Aber wer entscheidet, welche Standards implementiert werden sollen? Die Platin-Mitglieder, die Hunderttausende von Dollar pro Jahr zahlen, oder die Community, die die Tools entwickelt?

Nick Cooper von OpenAI sagte gegenüber TechCrunch, dass er "nicht will, dass es eine stagnierende Sache ist. Ich will nicht, dass diese Protokolle Teil dieser Stiftung sind und dort zwei Jahre lang bleiben. Sie sollten sich weiterentwickeln und kontinuierlich weitere Beiträge annehmen." Schöne Worte, aber die Geschichte der Open-Source-Software lehrt, dass derjenige, der die Maintainer kontrolliert und die Entwicklung finanziert, die Richtung des Projekts bestimmt.

Der Einsatz

Die wirtschaftlichen Auswirkungen sind enorm. Analysten prognostizieren, dass der Markt für autonome KI-Agenten in den kommenden Jahren zig Milliarden Dollar erreichen wird, mit Anwendungen, die von der E-Mail-Verwaltung bis zum komplexen Web-Browsing reichen. Wer die Standards kontrolliert, kontrolliert die Mautgebühren: Welches Unternehmen wird in ein proprietäres Agentensystem investieren wollen, wenn sich das Ökosystem um MCP, AGENTS.md und ähnliches konsolidiert?

Microsoft und GitHub kündigten im Mai 2025 an, dem Lenkungsausschuss von MCP beizutreten und damit den Zugriff auf das Windows-Dateisystem, Fensterfunktionen und das Windows Subsystem für Linux über MCP-Server zu ermöglichen. GitHub entwickelt einen Registrierungsdienst für MCP. Wenn Tech-Giganten ihre Infrastrukturen um ein Protokoll herum ausrichten, wird dieses de facto zum Standard, unabhängig davon, wie "offen" es auf dem Papier ist.

Wie eine kritische Analyse auf Implicator feststellt, ähnelt AAIF eher einem Handelsblock, der als offene Governance getarnt ist. Kostenpflichtige Mitgliedschaften schaffen eine Hierarchie, in der diejenigen, die mehr bezahlen, mehr Mitspracherecht haben. Zu den Platin-Mitgliedern gehören genau die Unternehmen, die am meisten von der Konsolidierung des Agentenmarktes unter Standards profitieren, die sie selbst mitgestaltet haben.

Die Umkehrung des Standardisierungsprozesses

Es gibt ein Detail, das in der offiziellen Darstellung untergeht, aber jeder, der die neunziger Jahre erlebt hat, erkennt es sofort: Der Prozess ist umgekehrt. Als das Internet entstand, kamen die Standards zuerst. Die Requests for Comments (RFCs) waren rigorose, öffentlich diskutierte Dokumente, die Protokolle wie TCP/IP, HTTP, SMTP definierten, bevor es einen Markt gab. Nachgelagert implementierten die Unternehmen diese Standards. Es war ein Bottom-up-Prozess, bei dem Ingenieure und Akademiker die Architektur definierten und der Markt folgte.

Mit AAIF erleben wir das Gegenteil: Zuerst bauen die Unternehmen proprietäre Protokolle (MCP entstand bei Anthropic, AGENTS.md bei OpenAI, Goose bei Block), dann sehen sie, dass sie Anklang finden, und schließlich schließen sie sich in einer "offenen" Stiftung zusammen, um ihren First-Mover-Vorteil zu zementieren. Sie schaffen keine neutralen Standards von Grund auf, sie legitimieren Protokolle, die bereits auf Millionen von Systemen eingesetzt werden. Es ist eine Post-facto-Standardisierung, bei der die Akzeptanz der Governance vorausgeht.

Aber es gibt einen zweiten, noch beunruhigenderen Aspekt: die Geografie. Alle Gründer von AAIF sind Amerikaner. Die Linux Foundation hat ihren Sitz in San Francisco. Die Platin-Sponsoren sind alle westlich, mit einer Dominanz der USA. Doch China investiert massiv in agentenbasierte KI: Laut einem McKinsey-Bericht von 2025 machen chinesische Unternehmen 15 % der weltweiten KI-Investitionen aus und entwickeln ihre eigenen Frameworks für autonome Agenten. Alibaba, Baidu, Tencent haben alle interne Projekte zu Agenten. Warum ist keiner von ihnen in der AAIF?

Eine mögliche Lesart ist, dass AAIF nicht wirklich eine globale Initiative ist, sondern ein westlicher Block, der versucht, Standards zu etablieren, bevor chinesische Akteure Alternativen vorschlagen können. Es ist die gleiche Dynamik wie bei 5G, wo die USA und Europa darauf drängten, Huawei von kritischen Netzwerken auszuschließen. Der Unterschied ist, dass wir hier nicht über physische Infrastruktur sprechen, sondern über Softwareprotokolle, die viel schwieriger zu kontrollieren sind, sobald sie Open Source sind. Wenn Alibaba morgen ein Agentenprotokoll veröffentlichen würde, das mit MCP inkompatibel, aber technisch überlegen ist und vom chinesischen Ökosystem massiv angenommen wird, würde AAIF Gefahr laufen, außerhalb des Westens irrelevant zu werden.

Es ist eine weitere Manifestation der technologischen Balkanisierung: eine Welt, zwei Internets, zwei Sätze von KI-Standards. Und wie immer in diesen Szenarien zahlt die globale Interoperabilität den Preis, die genau diese Standards zu bewahren vorgeben.

Das regulatorische Vakuum als Chance

Und hier kommen wir zum entscheidenden Punkt: Ist es möglich, dass hinter der Rhetorik der offenen Interoperabilität AAIF einen präventiven Angriff auf Standards darstellt, bevor die Regulierungsbehörden die Regeln festlegen können? Dies ist meine Hypothese, aber bedenken Sie den Zeitpunkt. Der EU AI Act wird mit offensichtlichen Lücken in Bezug auf Agenten umgesetzt. Die USA haben noch keine umfassende Bundesregulierung für KI. In diesem regulatorischen Vakuum schreiben die Tech-Giganten de facto die Verordnung, bevor die Schiedsrichter eintreffen.

Ein Bericht des Center for European Policy Studies warnt davor, dass KI-Agenten "der Regulierung vollständig entgehen oder zu einer fragmentierten Anwendung in der gesamten EU führen könnten". Die Auswirkungen auf die Privatsphäre sind tiefgreifend: Die DSGVO erwähnt Agenten nicht explizit, aber ihre Fähigkeit, riesige Mengen personenbezogener Daten autonom zu sammeln und zu verarbeiten, wirft Fragen darüber auf, wer der für die Verarbeitung Verantwortliche ist, wenn ein System autonom handelt.

Die Sicherheitsrisiken sind ebenso besorgniserregend. Agenten führen neue Angriffsflächen ein: Prompt-Injection über externe Daten, Verlust personenbezogener Daten, Manipulation von Modellen, Datenvergiftung durch kompromittierte Feedback-Schleifen. HiddenLayer, ein KI-Sicherheitsunternehmen, stellt fest, dass diese Systeme "die Grenzen der bestehenden Regulierung testen" und dass "Compliance kein Kästchen ist, das man ankreuzt, sondern ein Wettbewerbsvorteil im Zeitalter der autonomen KI".

Aber wenn die technischen Standards bereits von den Anbietern durch AAIF definiert wurden, haben die Regulierungsbehörden nur wenige Optionen: sich an die bestehenden Standards anpassen oder riskieren, die Innovation zu ersticken, indem sie Änderungen fordern, die mit dem bereits konsolidierten Ökosystem unvereinbar sind. Es ist die gleiche Dynamik, die die DSGVO so schwer auf soziale Plattformen anwendbar gemacht hat: Wenn technische Architekturen bereits eingesetzt sind, wird ihre Änderung unerschwinglich.

Auf dem Weg in eine agentenzentrierte Zukunft

Nicht alles ist düster. Offene Standards haben in der Vergangenheit die Innovation beschleunigt, indem sie es kleineren Akteuren ermöglichten, zu konkurrieren, ohne die Infrastruktur neu erfinden zu müssen. MCP könnte die Fragmentierung des Ökosystems tatsächlich reduzieren, AGENTS.md könnte das Verhalten von Agenten vorhersehbarer machen, Goose könnte zeigen, dass Local-First möglich ist. Die Linux Foundation hat trotz Kritik eine lange Geschichte in der Verwaltung kritischer Projekte wie Kubernetes und Node.js.

Aber ein kritischer Blick ist erforderlich. Wie Neal Stephenson in "Snow Crash" bemerkte, kontrolliert derjenige, der die Protokolle kontrolliert, de facto diese Räume, wenn private Protokolle gemeinsame Räume regeln. AAIF könnte wirklich eine Initiative zum Gemeinwohl sein, oder es könnte das Tech-Äquivalent zur Aufteilung eines Territoriums sein, bevor das Gesetz eintrifft.

Die Fragen, die man sich stellen muss, sind einfach: Wer hat bei AAIF die tatsächliche Entscheidungsgewalt? Wie werden Konflikte zwischen Mitgliedsunternehmen mit konkurrierenden Interessen gelöst? Welche Mechanismen gibt es, um sicherzustellen, dass die Standards den Endnutzern und nicht nur den kommerziellen Interessen der Gründer dienen? Und vor allem: Werden die Regulierungsbehörden in den Prozess der Standardsetzung einbezogen, oder werden sie sich damit abfinden müssen, bereits getroffene Entscheidungen zu ratifizieren?

Jim Zemlin von der Linux Foundation argumentiert, dass "die Herrschaft aus Verdienst und nicht aus Anbieterkontrolle entsteht", und zitiert Kubernetes als Beispiel. Aber Kubernetes entstand, als das Feld offen war. AAIF versucht, Standards zu definieren, wenn die Gründer bereits die Hauptakteure auf dem Markt sind.

Die Zeit wird zeigen, ob AAIF die neutrale Infrastruktur wird, die sie zu sein verspricht, oder ob sie sich als gut verpacktes Kartell herausstellt, bei dem Open Source zum Werkzeug eines präventiven Monopols wird. Vorerst, während die Tech-Unternehmen die Protokolle schreiben und die Regulierungsbehörden das Problem noch studieren, ist eines sicher: Wer die Sprache definiert, definiert dann das Gesetz. Und im Moment wird die Sprache von OpenAI, Anthropic und Block definiert, mit dem Imprimatur der Linux Foundation und der Finanzierung der Tech-Giganten. Fragen Sie sich selbst: Liegt das wirklich im öffentlichen Interesse oder ist es eine als Wohlwollen getarnte strategische Allianz?