Notizie IA Logo

AITalk

Actualités et analyses sur l'intelligence artificielle

Le Cartel des Agents : Quand l'Open Source Devient un Monopole Préventif

BusinessEthics & SocietyGenerative AI

agentic-ai-foundation.jpg

Le 9 décembre 2025, la Fondation Linux a annoncé la création de l'Agentic AI Foundation, une initiative qui réunit OpenAI, Anthropic et Block sous l'égide de ce qui devrait être une gouvernance neutre. Les trois géants ont fait don de leurs projets les plus stratégiques : le Model Context Protocol d'Anthropic, le framework Goose de Block et AGENTS.md d'OpenAI. L'initiative est accompagnée de sponsors platine comme AWS, Google, Microsoft, Bloomberg et Cloudflare. Une coalition si large qu'elle en devient presque suspecte.

Le communiqué officiel parle de "transparence", de "collaboration" et d'"intérêt public". Autant de termes rassurants qui cachent une question gênante : pourquoi maintenant ? Et surtout, pourquoi cette hâte de définir des normes pour une technologie que les régulateurs essaient encore de comprendre ?

La Généalogie de l'Agent Autonome

Pour comprendre l'enjeu, il faut prendre du recul. Les agents IA ne sont pas une nouveauté théorique : dès 2023, des projets expérimentaux comme Auto-GPT montraient que les modèles de langage pouvaient être orchestrés pour exécuter des tâches complexes de manière autonome. Mais entre une expérience sur GitHub et un produit d'entreprise, il y a un gouffre fait de fiabilité, de sécurité et surtout d'interopérabilité.

Le Model Context Protocol, lancé par Anthropic en novembre 2024, représente la première tentative sérieuse de normaliser la manière dont les agents IA communiquent avec les systèmes externes. Comme l'a expliqué David Soria Parra, co-créateur de MCP, à TechCrunch : "L'objectif principal est d'avoir une adoption suffisante dans le monde pour qu'il devienne le standard de facto". L'adoption a été rapide : selon les données de GitHub, des milliers de serveurs MCP ont été créés en quelques mois, avec des SDK disponibles pour tous les principaux langages de programmation et plus de 97 millions de téléchargements mensuels combinés pour les bibliothèques Python et TypeScript.

Goose de Block, sorti début 2025, adopte une philosophie local-first qui fait un clin d'œil aux paranoïaques de la vie privée. En tant que framework d'agent qui combine des modèles de langage avec des outils extensibles et des intégrations basées sur MCP, Goose permet aux développeurs de garder le contrôle sur ce qui est envoyé et où. Une approche que Manik Surtani, responsable de l'Open Source chez Block, a résumée ainsi lors du lancement de l'AAIF : "La technologie qui définira la prochaine décennie peut soit rester fermée et propriétaire au profit de quelques-uns, soit être guidée par des normes ouvertes pour tous".

AGENTS.md d'OpenAI, lancé en août 2025, est peut-être le projet le plus simple mais aussi le plus insidieux. Il s'agit d'un fichier Markdown que les agents peuvent lire pour comprendre comment fonctionner dans un dépôt : conventions de code, étapes de construction, exigences de test. Selon OpenAI, plus de 60 000 projets open source l'ont déjà adopté, y compris des outils comme Cursor, Devin, GitHub Copilot et VS Code. Un nombre impressionnant pour une norme née il y a à peine quatre mois.

Qui Écrit le Protocole, Écrit la Loi

Et c'est là que le discours officiel commence à se fissurer. Pourquoi cette convergence coordonnée vers des normes communes a-t-elle lieu à un moment très précis : lorsque les régulateurs n'ont pas encore défini légalement ce que sont les agents IA autonomes.

L'AI Act de l'UE, entré en vigueur en août 2024, a été conçu avant que les agents ne deviennent courants. Comme le note un rapport de The Future Society de juin 2025, "bien que l'AI Act n'ait pas été initialement conçu en pensant aux agents IA, nous constatons que le cadre réglementaire le plus complet au monde pour gouverner l'IA s'applique en fait aux agents. Mais des lacunes subsistent". Le problème central est que la loi classe les systèmes d'IA en fonction d'un risque statique, alors que les agents fonctionnent de manière dynamique, s'adaptant et prenant des décisions autonomes qui peuvent faire varier le niveau de risque en fonction du contexte.

Un article sur le European Law Blog décrit ce qu'il appelle la "Souveraineté des Outils Agentiques" : l'impossibilité pour les États et les fournisseurs de maintenir un contrôle légal sur la manière dont les systèmes d'IA invoquent et utilisent de manière autonome des outils transfrontaliers. Imaginez un système de recrutement à Paris qui, en cinq secondes, invoque une API psychométrique américaine, un service de vérification britannique, une plateforme de compétences singapourienne et un outil salarial suisse. Trois mois plus tard, quatre régulateurs infligent des amendes. Qui est responsable ? Le déployeur n'avait aucune visibilité sur les flux de données, les pistes d'audit étaient insuffisantes, l'agent n'avait pas de contrôles de routage géographique.

En septembre 2025, le député européen Sergey Lagodinsky a demandé formellement à la Commission de clarifier "comment les agents IA seront réglementés". Au moment où j'écris ces lignes, aucune réponse publique n'a été publiée. Ce vide réglementaire est le terrain de jeu idéal pour ceux qui veulent écrire les règles avant l'arrivée des arbitres. annuncio.jpg Image du site web de l'Agentic AI Foundation

Anatomie d'une Alliance Stratégique

Les trois projets fondateurs de l'AAIF ne sont pas choisis au hasard : ils représentent les couches critiques de l'infrastructure des agents. MCP définit comment les agents parlent avec le monde extérieur. AGENTS.md normalise la manière dont les agents comprennent les contextes de travail. Goose démontre comment ces pièces s'assemblent dans un framework fonctionnel. Ensemble, ils couvrent l'ensemble de la pile technologique.

Le don à la Fondation Linux semble noble, mais il soulève des questions sur la gouvernance réelle. La Fondation Linux a une histoire controversée avec l'influence des entreprises. Comme l'a rapporté The New Stack dès 2021, la fondation a supprimé de ses statuts la possibilité pour les membres de la communauté d'être élus au conseil d'administration, laissant le contrôle exclusivement aux sponsors corporatifs. Matthew Garrett, un contributeur du noyau Linux, a dénoncé ce changement comme un abandon de la représentation communautaire.

Jim Zemlin, directeur exécutif de la Fondation Linux, a déclaré qu'"un indicateur précoce de succès, au-delà de l'adoption de ces normes, serait le développement et la mise en œuvre de normes partagées utilisées par les agents des fournisseurs du monde entier". Mais qui décide quelles normes doivent être mises en œuvre ? Les membres platine qui paient des centaines de milliers de dollars par an, ou la communauté qui développe les outils ?

Nick Cooper d'OpenAI a affirmé sur TechCrunch que "je ne veux pas que ce soit une chose stagnante. Je ne veux pas que ces protocoles fassent partie de cette fondation et y restent pendant deux ans. Ils devraient évoluer et accepter continuellement de nouvelles contributions". De belles paroles, mais l'histoire du logiciel open source enseigne que celui qui contrôle les mainteneurs et finance le développement détermine la direction du projet.

L'Enjeu

Les implications économiques sont énormes. Les analystes prévoient que le marché des agents IA autonomes atteindra des dizaines de milliards de dollars dans les années à venir, avec des applications allant de la gestion des e-mails à la navigation web complexe. Qui contrôle les normes contrôle les péages : quelle entreprise voudra investir dans un système d'agent propriétaire lorsque l'écosystème se consolidera autour de MCP, AGENTS.md et autres ?

Microsoft et GitHub ont annoncé en mai 2025 qu'ils rejoignaient le comité directeur de MCP, apportant avec eux l'accès au système de fichiers de Windows, des fonctionnalités de fenêtrage et le sous-système Windows pour Linux via des serveurs MCP. GitHub développe un service de registre pour MCP. Lorsque les géants de la technologie alignent leurs infrastructures autour d'un protocole, celui-ci devient de facto la norme, peu importe à quel point il est "ouvert" sur le papier.

Comme le note une analyse critique sur Implicator, l'AAIF ressemble plus à un bloc commercial déguisé en gouvernance ouverte. Les adhésions payantes créent une hiérarchie où ceux qui paient le plus ont plus leur mot à dire. Les membres platine comprennent exactement les entreprises qui ont le plus à gagner de la consolidation du marché des agents sous des normes qu'elles ont elles-mêmes contribué à créer.

L'Inversion du Processus de Normalisation

Il y a un détail qui échappe au récit officiel, mais que quiconque a vécu les années 90 reconnaît immédiatement : le processus est inversé. Quand Internet est né, les normes venaient en premier. Les Demandes de Commentaires (RFC) étaient des documents rigoureux, discutés publiquement, qui définissaient des protocoles comme TCP/IP, HTTP, SMTP avant qu'il n'existe un marché. En aval, les entreprises mettaient en œuvre ces normes. C'était un processus ascendant où les ingénieurs et les universitaires définissaient l'architecture et le marché suivait.

Avec l'AAIF, nous assistons à l'opposé : d'abord, les entreprises construisent des protocoles propriétaires (MCP est né au sein d'Anthropic, AGENTS.md au sein d'OpenAI, Goose au sein de Block), puis elles voient qu'ils ont du succès, et enfin, elles se coalisent au sein d'une fondation "ouverte" pour cristalliser leur avantage de premier arrivant. Elles ne créent pas de normes neutres à partir de zéro, elles légitiment des protocoles déjà déployés sur des millions de systèmes. C'est une normalisation a posteriori, où l'adoption précède la gouvernance.

Mais il y a un deuxième aspect encore plus inquiétant : la géographie. Tous les fondateurs de l'AAIF sont américains. La Fondation Linux est basée à San Francisco. Les sponsors platine sont tous occidentaux, avec une prédominance américaine. Pourtant, la Chine investit massivement dans l'IA agentique : selon un rapport de McKinsey de 2025, les entreprises chinoises représentent 15 % des investissements mondiaux dans l'IA et développent leurs propres cadres pour les agents autonomes. Alibaba, Baidu, Tencent ont tous des projets internes sur les agents. Pourquoi aucun d'entre eux ne fait-il partie de l'AAIF ?

Une lecture possible est que l'AAIF n'est pas réellement une initiative mondiale, mais un bloc occidental qui tente d'établir des normes avant que les acteurs chinois ne puissent proposer des alternatives. C'est la même dynamique observée avec la 5G, où les États-Unis et l'Europe ont fait pression pour exclure Huawei des réseaux critiques. La différence est qu'ici, nous ne parlons pas d'infrastructure physique mais de protocoles logiciels, beaucoup plus difficiles à contrôler une fois qu'ils sont open source. Si demain Alibaba publiait un protocole d'agent incompatible avec MCP mais techniquement supérieur, et que l'écosystème chinois l'adoptait massivement, l'AAIF risquerait de devenir hors de propos en dehors de l'Occident.

C'est une nouvelle manifestation de la balkanisation technologique : un monde, deux Internets, deux ensembles de normes d'IA. Et comme toujours dans ces scénarios, celui qui en paie le prix est l'interopérabilité mondiale que ces mêmes normes prétendent vouloir préserver.

Le Vide Réglementaire comme Opportunité

Et nous voici au point crucial : est-il possible que derrière la rhétorique de l'interopérabilité ouverte, l'AAIF représente une attaque préventive contre les normes avant que les régulateurs ne puissent établir les règles ? C'est mon hypothèse, mais considérez le timing. L'AI Act de l'UE est en cours de mise en œuvre avec des lacunes évidentes concernant les agents. Les États-Unis n'ont pas encore de réglementation fédérale complète sur l'IA. Dans ce vide réglementaire, les géants de la technologie écrivent de facto le règlement avant l'arrivée des arbitres.

Un rapport du Center for European Policy Studies avertit que les agents IA pourraient "échapper complètement à la réglementation ou conduire à une application fragmentée dans toute l'UE". Les implications pour la vie privée sont profondes : le RGPD ne mentionne pas explicitement les agents, mais leur capacité à collecter et à traiter de manière autonome d'énormes quantités de données personnelles soulève des questions sur qui est le contrôleur des données lorsqu'un système agit de manière autonome.

Les risques de sécurité sont tout aussi préoccupants. Les agents introduisent de nouvelles surfaces d'attaque : injection de prompts via des données externes, fuite d'informations personnelles, falsification de modèles, empoisonnement de données via des boucles de rétroaction compromises. HiddenLayer, une société de sécurité IA, note que ces systèmes "testent les limites de la réglementation existante" et que "la conformité n'est pas une case à cocher, c'est un avantage concurrentiel à l'ère de l'IA autonome".

Mais si les normes techniques ont déjà été définies par les fournisseurs via l'AAIF, les régulateurs auront peu d'options : s'adapter aux normes existantes ou risquer d'étouffer l'innovation en exigeant des modifications incompatibles avec l'écosystème déjà consolidé. C'est la même dynamique qui a rendu le RGPD si difficile à appliquer aux plateformes sociales : lorsque les architectures techniques sont déjà déployées, les modifier devient prohibitif.

Vers un Avenir Centré sur l'Agent

Tout n'est pas sombre. Les normes ouvertes ont historiquement accéléré l'innovation en permettant aux plus petits acteurs de rivaliser sans avoir à réinventer l'infrastructure. MCP pourrait effectivement réduire la fragmentation de l'écosystème, AGENTS.md pourrait rendre le comportement des agents plus prévisible, Goose pourrait démontrer que le local-first est possible. La Fondation Linux, malgré les critiques, a une longue histoire de gestion de projets critiques comme Kubernetes et Node.js.

Mais un œil critique est nécessaire. Comme l'observait Neal Stephenson dans "Snow Crash", lorsque des protocoles privés gouvernent des espaces partagés, celui qui contrôle les protocoles contrôle de facto ces espaces. L'AAIF pourrait être une initiative véritablement pour le bien commun, ou elle pourrait être l'équivalent technologique du partage d'un territoire avant l'arrivée de la loi.

Les questions à se poser sont simples : qui a un réel pouvoir de décision au sein de l'AAIF ? Comment les conflits entre les sociétés membres ayant des intérêts concurrents sont-ils résolus ? Quels mécanismes existent pour garantir que les normes servent les utilisateurs finaux et non seulement les intérêts commerciaux des fondateurs ? Et surtout : les régulateurs seront-ils impliqués dans le processus de définition des normes, ou se retrouveront-ils à devoir ratifier des décisions déjà prises ?

Jim Zemlin de la Fondation Linux soutient que "la domination émerge du mérite et non du contrôle des fournisseurs", citant Kubernetes comme exemple. Mais Kubernetes a émergé lorsque le domaine était ouvert. L'AAIF tente de définir des normes alors que les fondateurs sont déjà les principaux acteurs du marché.

Le temps nous dira si l'AAIF deviendra l'infrastructure neutre qu'elle promet d'être, ou si elle se révélera être un cartel bien emballé où l'open source devient un outil de monopole préventif. Pour l'instant, alors que les entreprises technologiques écrivent les protocoles et que les régulateurs étudient encore le problème, une chose est sûre : celui qui définit le langage définit ensuite la loi. Et en ce moment, le langage est défini par OpenAI, Anthropic et Block, avec l'imprimatur de la Fondation Linux et le financement des géants de la technologie. Demandez-vous : est-ce vraiment dans l'intérêt public, ou est-ce une alliance stratégique déguisée en bienveillance ?