L'UE enquête sur Google : L'effondrement des éditeurs est-il la faute de l'IA ?

L'UE ouvre une enquête formelle sur Google concernant l'effondrement du trafic des éditeurs. Mais derrière le litige sur le spam se cache un enjeu plus important : qui contrôle réellement le flux d'informations en ligne et qui en tire profit.
L'étincelle qui met le feu aux poudres
Le 13 novembre 2025, la Commission européenne a ouvert une procédure formelle contre Google en vertu de la loi sur les marchés numériques (DMA). L'accusation est précise : les modifications apportées aux politiques de classement de la recherche, introduites sous le prétexte de lutter contre le spam, auraient provoqué un effondrement vertical du trafic vers les sites des éditeurs européens, pénalisant en particulier ceux qui hébergent des contenus commerciaux de tiers.
Teresa Ribera, vice-présidente exécutive de la Commission, ne mâche pas ses mots : "Nous craignons que les politiques de Google ne permettent pas aux éditeurs de presse d'être traités de manière équitable, raisonnable et non discriminatoire dans les résultats de recherche". L'enquête se concentre sur deux articles spécifiques du DMA, le 6(5) et le 6(12), qui obligent les "contrôleurs d'accès" à garantir la transparence et l'égalité de traitement aux utilisateurs commerciaux de leurs services.
La réponse de Google arrive quelques heures plus tard, avec un billet de blog de l'entreprise qui renverse complètement le récit. Dan Taylor, vice-président de la recherche Google, présente la question comme une bataille pour protéger les utilisateurs contre les pratiques manipulatrices : le "SEO parasite", où des sites faisant autorité vendent des espaces sur leurs propres URL pour héberger des contenus de tiers qui exploitent leur réputation pour grimper dans les résultats de recherche.
Le moment de l'annonce européenne n'est pas anodin. En octobre 2025, Google avait déjà reçu une amende de 2,95 milliards d'euros pour des violations dans le secteur de la technologie publicitaire, également en vertu du DMA. Cette nouvelle enquête, qui pourrait entraîner des sanctions allant jusqu'à 10 % du chiffre d'affaires annuel mondial de l'entreprise, s'inscrit dans un contexte de tensions croissantes entre les géants de la technologie et les régulateurs européens.

Anatomie d'un déclassement
Pour comprendre ce qui se passe réellement, il faut remonter quelques mois en arrière. En mars 2024, Google introduit la politique de "l'abus de réputation de site", visant à lutter contre ce que l'entreprise définit comme une pollution systématique des résultats de recherche. Le mécanisme est aussi simple que dévastateur : des organes de presse et des sites faisant autorité vendaient des sous-répertoires ou des sous-domaines à des opérateurs commerciaux, qui y publiaient des contenus optimisés pour le référencement de produits financiers, de casinos en ligne, de critiques sponsorisées.
Le cas emblématique est celui de Forbes, qui hébergeait dans ses sous-domaines des contenus d'affiliation pour des cartes de crédit et des comptes courants qui n'avaient aucun lien éditorial avec le titre. Il en va de même pour le Wall Street Journal, CNN et des dizaines d'autres titres qui avaient transformé des portions de leurs propres URL en véritables enclaves commerciales. Google qualifie cette pratique de "parasitaire" car elle exploite l'autorité d'un domaine construite au fil du temps à des fins purement commerciales, créant une distorsion de concurrence par rapport aux sites spécialisés qui, eux, opèrent de manière autonome.
La politique initiale laissait cependant une échappatoire : elle ne pouvait être appliquée que manuellement, au cas par cas. En novembre 2024, la mise à jour qui ferme toute brèche arrive, rendant automatique la détection et le déclassement de ces contenus. Les effets sont immédiats et drastiques. Selon les données rapportées par plusieurs sources, certains éditeurs européens enregistrent des baisses de trafic allant jusqu'à 34 % en quelques semaines.
Le problème est que l'algorithme ne fait pas toujours la distinction entre l'exploitation parasitaire et les partenariats légitimes. Un titre qui publie des contenus sponsorisés clairement identifiés, ou qui héberge des sections d'affiliation cohérentes avec sa ligne éditoriale, peut se retrouver dans le même sac que le pur spam. C'est comme utiliser une masse là où il faudrait un scalpel.

Le véritable champ de bataille
Derrière ce litige technique se cache un enjeu beaucoup plus vaste sur l'avenir de l'écosystème de l'information numérique. La loi sur les marchés numériques, entrée en vigueur en 2023, désigne Google comme contrôleur d'accès précisément en raison de son rôle dominant dans la distribution de l'information en ligne. L'entreprise de Mountain View contrôle plus de 90 % du marché européen de la recherche, une position qui lui confère un pouvoir sans précédent pour décider quels contenus atteignent les utilisateurs et lesquels n'y parviennent pas.
Mais il y a une autre dimension à la question qui n'apparaît que rarement dans le débat public : l'article 15 de la directive européenne sur le droit d'auteur, communément appelé "droits voisins". Cette norme, approuvée après des années de batailles législatives, reconnaît aux éditeurs le droit d'être rémunérés lorsque leurs contenus sont utilisés par des plateformes numériques. Google a toujours considéré cette directive comme une menace existentielle pour son modèle économique.
Les chroniques récentes documentent bien ce conflit. En 2018, alors que la directive était encore en discussion, Google avait mené des tests dans plusieurs pays européens pour démontrer l'impact d'une éventuelle suppression des extraits d'actualités. Les résultats montraient une baisse de trafic de 45 % pour les éditeurs, un message d'intimidation qui disait : sans nous, vous êtes morts. En Espagne, où une loi similaire avait été adoptée en 2014, Google avait simplement fermé Google Actualités, causant des dommages économiques importants, en particulier aux petits éditeurs.
La France a emprunté une voie différente. Après de longues négociations et des menaces de sanctions, Google a accepté de verser des rémunérations aux éditeurs français, bien que les montants et les termes précis des accords restent confidentiels. Angela Mills Wade, directrice exécutive du Conseil européen des éditeurs, avait à l'époque accusé Google d'"abuser de sa position dominante et de se placer au-dessus de la loi".
Aujourd'hui, le scénario se répète avec de nouvelles variantes. Google prétend lutter contre le spam, les éditeurs dénoncent un déclassement arbitraire, Bruxelles enquête. Mais le véritable sujet sous-jacent est toujours le même : qui contrôle le robinet du trafic en ligne et qui en tire un profit économique.
La révolution silencieuse
Pour bien comprendre la stratégie de Google, il faut regarder au-delà de cette controverse spécifique et analyser un phénomène plus large : la transformation de la recherche d'un outil de navigation à une destination finale. C'est là qu'intervient l'élément le plus perturbateur de toute l'affaire.
Une étude publiée par SparkToro en 2024 a révélé des données stupéfiantes : 59,7 % des recherches européennes sur Google se terminent sans aucun clic vers des sites externes. Cela signifie que sur mille recherches, seules 374 génèrent du trafic vers le web ouvert. Le reste se dissout au sein de l'écosystème de Google : des recherches qui se terminent sans action, des requêtes qui changent sans jamais quitter la plateforme, des utilisateurs qui trouvent la réponse directement sur la page de résultats.
Le principal mécanisme derrière cette transformation sont les "AI Overviews", les résumés générés automatiquement qui apparaissent en haut des résultats. Lorsqu'un utilisateur voit une réponse complète déjà préparée par un algorithme d'intelligence artificielle, la probabilité qu'il clique sur un lien est considérablement réduite. Des recherches du Pew Research Center ont montré que la présence de ces résumés réduit de 50 % la propension au clic, et que seulement 1 % des utilisateurs cliquent sur les liens cités dans les "AI Overviews" elles-mêmes.
Comme je l'ai documenté dans l'analyse de la révolution de l'IA de Google, cette transformation n'est pas accidentelle mais planifiée. Le 6 septembre 2025, lorsque google.com/ai a été redirigé vers la recherche standard, l'intelligence artificielle est devenue le moteur par défaut pour des milliards de requêtes quotidiennes. Ce n'est plus une expérience, mais la nouvelle réalité d'Internet.
Cette évolution soulève des questions fondamentales. Si Google entraîne ses modèles d'intelligence artificielle sur les contenus produits par les éditeurs, pour ensuite utiliser ces modèles pour retenir les utilisateurs au sein de son propre écosystème, qui bénéficie économiquement de cette transformation ? Le créateur original du contenu ou la plateforme qui le retravaille et le distribue ?
Le débat sur la manière de rémunérer les producteurs de contenu à l'ère de l'IA ne fait que commencer. Comme je l'ai approfondi dans l'article sur Really Simple Licensing, le protocole proposé par le co-créateur de RSS, Dave Winer, cherche à créer des normes techniques qui permettent aux éditeurs de spécifier les termes et conditions d'utilisation de leurs contenus dans l'entraînement de systèmes d'intelligence artificielle. Des plateformes comme Reddit, Yahoo et Medium y ont déjà adhéré, mais la voie vers une adoption universelle semble encore longue et incertaine.
Les intérêts cachés
Le litige entre Google et les éditeurs européens présente de multiples niveaux de complexité, où des raisons légitimes se mêlent à des intérêts économiques et à des stratégies de positionnement. Analyser les motivations de chaque partie exige d'aller au-delà des déclarations publiques et de se pencher sur les modèles économiques sous-jacents.
Google prétend protéger les utilisateurs du spam, et cette affirmation a une validité objective. Le SEO parasite est un problème réel : des sites faisant autorité qui vendent des portions de leurs propres URL à des opérateurs commerciaux créent effectivement des distorsions dans les résultats de recherche. Un utilisateur qui recherche des informations financières et se retrouve sur un sous-domaine de Forbes avec des contenus d'affiliation peu transparents a raison de se sentir trompé. L'algorithme de Google, dans ce cas, tente de rétablir une cohérence entre l'attente de l'utilisateur et le contenu effectivement servi.
Cependant, ce discours protecteur se heurte à une donnée économique inéluctable : Google bénéficie directement de la réduction du trafic vers l'extérieur. Chaque utilisateur qui reste plus longtemps au sein de l'écosystème de Google est potentiellement exposé à plus de publicités de Google, utilise plus de services de Google, génère plus de données pour Google. Les recherches "zéro clic" ne sont pas un effet secondaire indésirable, mais une caractéristique du système. Lorsque l'entreprise déclare qu'elle "lutte contre le spam", elle construit également un jardin clos de plus en plus autosuffisant.
D'un autre côté, les éditeurs dénoncent un traitement discriminatoire, et là aussi, l'argument a des fondements concrets. La distinction entre le contenu commercial légitime et le spam parasitaire est souvent floue. Un titre qui publie des guides d'achat bien conçus, avec des liens d'affiliation transparents, fait-il quelque chose de différent de ce que fait le Wirecutter du New York Times ? La différence réside dans la qualité et l'honnêteté éditoriale, pas dans la présence ou l'absence de finalités commerciales.
Mais la position des éditeurs cache aussi des ambiguïtés non négligeables. De nombreux titres ont pendant des années construit des modèles économiques opaques, où la frontière entre le journalisme et la publicité s'est progressivement estompée. La publicité native, lorsqu'elle est bien faite, peut être informative et utile. Lorsqu'elle est mal faite, elle devient indiscernable du spam que Google prétend combattre. Les éditeurs qui protestent aujourd'hui contre le déclassement sont dans de nombreux cas les mêmes qui ont accepté pendant des années d'héberger des contenus commerciaux peu transparents, cherchant à maximiser les revenus à court terme au détriment de la crédibilité à long terme.
La Commission européenne, enfin, évolue dans un équilibre délicat entre la protection de la concurrence et la sauvegarde de l'écosystème de l'information. Le DMA a pour objectif d'empêcher les contrôleurs d'accès numériques d'utiliser leur position dominante pour fausser les marchés. Google, avec son contrôle quasi monopolistique de la recherche, entre parfaitement dans cette catégorie. Mais la question complexe est la suivante : quand une modification algorithmique devient-elle un abus de position dominante ? Si Google améliore réellement l'expérience utilisateur en luttant contre le spam, l'UE peut-elle lui imposer de ne pas le faire pour protéger les revenus des éditeurs ?
Échec ou impasse ?
Les voies qui s'ouvrent aux protagonistes de cette affaire sont multiples, chacune ayant des conséquences profondes pour l'avenir du web. Le résultat le plus immédiat pourrait être un accord en coulisses, où Google accepte des modifications marginales de sa politique en échange du classement de l'enquête. Cette solution, déjà vue par le passé dans d'autres litiges antitrust, laisserait cependant les questions de fond en suspens.
Un scénario plus radical prévoit des sanctions lourdes et des remèdes structurels. La Commission pourrait obliger Google à rendre plus transparents les critères de classement, à créer des mécanismes d'appel pour les éditeurs pénalisés, voire à séparer l'activité de recherche de celle de la publicité. Des mesures similaires ont été appliquées dans d'autres cas d'abus de position dominante, mais leur efficacité pratique reste débattue.
L'hypothèse la plus extrême, mais pas totalement invraisemblable, est que Google décide de retirer certaines fonctionnalités en Europe, comme il a menacé de le faire à plusieurs reprises par le passé. La fermeture de Google Actualités en Espagne en 2014 a montré que l'entreprise est prête à jouer dur lorsqu'elle estime que les réglementations locales menacent son modèle économique. Une mesure similaire aujourd'hui aurait des conséquences encore plus dramatiques, compte tenu de la dépendance quasi totale de l'écosystème éditorial européen vis-à-vis du trafic de Google.
Le contexte géopolitique ajoute des complexités supplémentaires. Les déclarations publiques de l'administration Trump, qui a critiqué à plusieurs reprises les sanctions européennes contre les entreprises technologiques américaines, pourraient transformer un litige commercial en incident diplomatique. Google, comme d'autres géants américains de la technologie, pourrait invoquer la protection politique de son propre gouvernement, transformant l'enquête de l'UE en un cas de tension transatlantique.
Mais peut-être que la conséquence la plus profonde de cette affaire ne concerne pas Google ou les éditeurs, mais l'avenir de l'information en ligne. Si les utilisateurs s'habituent à obtenir des réponses synthétiques de l'intelligence artificielle sans jamais consulter les sources originales, quelle incitation reste-t-il à produire des contenus de qualité ? Si les éditeurs ne parviennent pas à monétiser le trafic organique parce que Google le retient dans son propre écosystème, comment financeront-ils le journalisme d'investigation ?
Ces questions n'ont pas de réponses simples. L'équilibre entre l'innovation technologique et la durabilité de l'écosystème de l'information est fragile, et toute intervention réglementaire risque de produire des effets inattendus. Ce qui est certain, c'est que le modèle construit au cours des vingt dernières années, où Google fonctionnait comme un grand distributeur universel de trafic vers le web ouvert, se dissout rapidement. À sa place, un système émerge où l'accès à l'information est de plus en plus médiatisé par des intelligences artificielles qui synthétisent, retravaillent et présentent des contenus sans nécessairement amener les utilisateurs à la source.
Le défi pour les régulateurs européens sera de trouver un point d'équilibre qui protège la concurrence sans étouffer l'innovation, qui protège les éditeurs sans cristalliser des modèles économiques obsolètes, qui garantit aux utilisateurs l'accès à des informations de qualité sans imposer artificiellement des modes de navigation sur le web qui ne correspondent plus aux comportements réels.
Pendant ce temps, alors que Bruxelles et Mountain View s'affrontent dans ce qui pourrait s'avérer être un long bras de fer juridique, l'écosystème numérique continue de se transformer. Les éditeurs les plus avisés diversifient déjà leurs sources de trafic, en investissant dans des newsletters directes, des communautés propriétaires et des modèles d'abonnement. D'autres, moins adaptables ou simplement plus petits, risquent d'être balayés par une tempête parfaite : moins de trafic de Google, plus de concurrence de la part de contenus synthétiques générés par l'IA, et la difficulté croissante de monétiser une attention de plus en plus fragmentée.
La vraie question, au final, n'est pas de savoir qui remportera cette bataille juridique spécifique. C'est de savoir si nous parviendrons à construire un écosystème numérique où ceux qui produisent des informations de qualité pourront être rémunérés de manière adéquate, où les plateformes technologiques répondront de la manière dont elles exercent leur pouvoir d'intermédiation, et où les utilisateurs conserveront l'accès à une pluralité de voix et de perspectives. Le "jeu" entre Bruxelles et Mountain View n'est que le dernier chapitre d'une transformation qui redéfinira profondément la manière dont nous produisons, distribuons et consommons l'information au XXIe siècle.