Notizie IA Logo

AITalk

Notizie ed analisi sull'Intelligenza Artificiale

L'UE indaga su Google: Crollo degli Editori colpa dell'AI?

CopyrightEthics & SocietyBusiness
Video

google-ue-indagine.jpg

L'UE apre un'indagine formale su Google per il crollo del traffico degli editori. Ma dietro la disputa sullo spam si nasconde una partita più grande: chi controlla davvero il flusso delle informazioni online e chi ne trae profitto.

La scintilla che accende il fuoco

Il 13 novembre 2025, la Commissione Europea ha avviato un procedimento formale contro Google ai sensi del Digital Markets Act. L'accusa è precisa: le modifiche alle politiche di ranking della ricerca, introdotte sotto l'etichetta di lotta allo spam, avrebbero causato un crollo verticale del traffico verso i siti degli editori europei, penalizzando in particolare quelli che ospitano contenuti commerciali di terze parti.

Teresa Ribera, vicepresidente esecutiva della Commissione, non usa mezzi termini: "Siamo preoccupati che le politiche di Google non permettano agli editori di notizie di essere trattati in modo equo, ragionevole e non discriminatorio nei risultati di ricerca". L'indagine si concentra su due articoli specifici del DMA, il 6(5) e il 6(12), che obbligano i cosiddetti gatekeeper a garantire trasparenza e parità di trattamento agli utenti commerciali dei loro servizi.

La risposta di Google arriva poche ore dopo, con un post sul blog aziendale che ribalta completamente la narrazione. Dan Taylor, vice presidente di Google Search, inquadra la questione come una battaglia per proteggere gli utenti da pratiche manipolative: il "parasite SEO", dove siti autorevoli vendono spazi alle proprie URL per ospitare contenuti di terze parti che sfruttano la loro reputazione per scalare i risultati di ricerca.

Il tempismo dell'annuncio europeo non è casuale. A ottobre 2025, Google aveva già ricevuto una multa da 2,95 miliardi di euro per violazioni nel settore dell'advertising technology, sempre in base al DMA. Questa nuova indagine, che potrebbe portare a sanzioni fino al 10% del fatturato globale annuale dell'azienda, si inserisce in un contesto di crescente tensione tra Big Tech e regolatori europei. ue.jpg Immagine tratta dal sito dell'Unione Europea

Anatomia di un declassamento

Per capire cosa sta realmente accadendo, bisogna tornare indietro di qualche mese. A marzo 2024, Google introduce la policy "site reputation abuse", mirata a combattere quello che l'azienda definisce un inquinamento sistematico dei risultati di ricerca. Il meccanismo è semplice quanto devastante: testate giornalistiche e siti autorevoli vendevano subdirectory o subdomain a operatori commerciali, che vi pubblicavano contenuti ottimizzati SEO per prodotti finanziari, casinò online, recensioni sponsorizzate.

Il caso simbolo è quello di Forbes, che ospitava nei propri subdomain contenuti di affiliazione per carte di credito e conti correnti che non avevano alcuna connessione editoriale con la testata. Stesso discorso per il Wall Street Journal, CNN, e decine di altre testate che avevano trasformato porzioni delle proprie URL in vere e proprie enclavi commerciali. Google definisce questa pratica "parassitaria" perché sfrutta l'autorevolezza di un dominio costruita nel tempo per fini puramente commerciali, creando una distorsione competitiva rispetto a siti specializzati che invece operano in autonomia.

La policy iniziale lasciava però una scappatoia: poteva essere applicata solo manualmente, caso per caso. A novembre 2024 arriva l'aggiornamento che chiude ogni spiraglio, rendendo automatico il rilevamento e il declassamento di questi contenuti. Gli effetti sono immediati e drastici. Secondo i dati riportati da diverse fonti, alcuni editori europei registrano cali di traffico fino al 34% in poche settimane.

Il problema è che l'algoritmo non sempre distingue tra sfruttamento parassitario e partnership legittime. Una testata che pubblica contenuti sponsorizzati chiaramente etichettati, o che ospita sezioni di affiliazione coerenti con la propria linea editoriale, può finire nello stesso calderone dello spam puro. È come usare un maglio dove servirebbe un bisturi. google.jpg Immagine tratta dal blog di Google

Il vero campo di battaglia

Dietro questa disputa tecnica si nasconde una partita molto più ampia sul futuro dell'ecosistema informativo digitale. Il Digital Markets Act, entrato in vigore nel 2023, designa Google come gatekeeper proprio per il suo ruolo dominante nella distribuzione delle informazioni online. L'azienda di Mountain View controlla oltre il 90% del mercato europeo della ricerca, una posizione che le conferisce un potere senza precedenti nel decidere quali contenuti raggiungono gli utenti e quali no.

Ma c'è un'altra dimensione della questione che raramente emerge nel dibattito pubblico: l'Articolo 15 della Direttiva Copyright europea, comunemente noto come neighbouring rights. Questa norma, approvata dopo anni di battaglie legislative, riconosce agli editori il diritto di essere compensati quando i loro contenuti vengono utilizzati da piattaforme digitali. Google ha sempre visto questa direttiva come una minaccia esistenziale al proprio modello di business.

Le cronache recenti documentano bene questo conflitto. Nel 2018, quando la direttiva era ancora in discussione, Google aveva condotto test in diversi paesi europei per dimostrare l'impatto di un'eventuale rimozione degli snippet dalle news. I risultati mostravano cali di traffico del 45% per i publisher, un messaggio intimidatorio che diceva: senza di noi, siete morti. In Spagna, dove nel 2014 era stata approvata una legge simile, Google aveva semplicemente chiuso Google News, causando danni economici significativi soprattutto ai piccoli editori.

La Francia ha preso una strada diversa. Dopo lunghe negoziazioni e minacce di sanzioni, Google ha accettato di pagare compensi agli editori francesi, anche se gli importi e i termini precisi degli accordi rimangono riservati. Angela Mills Wade, direttrice esecutiva dell'European Publishers Council, aveva all'epoca accusato Google di "abusare della propria posizione dominante e mettersi al di sopra della legge".

Oggi il copione si ripete con nuove varianti. Google sostiene di combattere lo spam, gli editori denunciano un declassamento arbitrario, Bruxelles indaga. Ma il vero tema sottostante è sempre lo stesso: chi controlla il rubinetto del traffico online e chi ne trae profitto economico.

La rivoluzione silenziosa

Per comprendere appieno la strategia di Google, bisogna guardare oltre questa specifica controversia e analizzare un fenomeno più ampio: la trasformazione della ricerca da strumento di navigazione a destinazione finale. È qui che entra in gioco l'elemento più dirompente dell'intera vicenda.

Uno studio pubblicato da SparkToro nel 2024 ha rivelato dati sconvolgenti: il 59,7% delle ricerche europee su Google si conclude senza alcun click verso siti esterni. Significa che su mille ricerche, solo 374 portano traffico al web aperto. Il resto si dissolve all'interno dell'ecosistema Google: ricerche che terminano senza azione, query che cambiano senza mai uscire dalla piattaforma, utenti che trovano la risposta direttamente nella pagina dei risultati.

Il meccanismo principale dietro questa trasformazione sono le AI Overviews, le sintesi generate automaticamente che appaiono in cima ai risultati. Quando un utente vede una risposta completa già confezionata da un algoritmo di intelligenza artificiale, la probabilità che clicchi su un link si riduce drasticamente. Ricerche del Pew Research Center hanno dimostrato che la presenza di queste sintesi riduce del 50% la propensione al click, e solo l'1% degli utenti clicca sui link citati all'interno delle stesse AI Overviews.

Come ho documentato nell'analisi della rivoluzione AI di Google, questa trasformazione non è accidentale ma pianificata. Il 6 settembre 2025, quando google.com/ai è stato reindirizzato alla ricerca standard, l'intelligenza artificiale è diventata il motore predefinito per miliardi di query quotidiane. Non più un esperimento, ma la nuova realtà di Internet.

Questa evoluzione solleva domande fondamentali. Se Google addestra i propri modelli di intelligenza artificiale sui contenuti prodotti dagli editori, per poi utilizzare quei modelli per trattenere gli utenti all'interno del proprio ecosistema, chi beneficia economicamente di questa trasformazione? Il creatore originale del contenuto o la piattaforma che lo rielabora e lo distribuisce?

Il dibattito su come remunerare i produttori di contenuti nell'era dell'AI è appena iniziato. Come ho approfondito nell'articolo su Really Simple Licensing, il protocollo proposto dal co-creatore di RSS Dave Winer cerca di creare standard tecnici che permettano agli editori di specificare termini e condizioni per l'utilizzo dei propri contenuti nell'addestramento di sistemi di intelligenza artificiale. Piattaforme come Reddit, Yahoo e Medium hanno già aderito, ma la strada verso un'adozione universale appare ancora lunga e incerta.

Gli interessi nascosti

La disputa tra Google e gli editori europei presenta molteplici livelli di complessità, dove ragioni legittime si intrecciano con interessi economici e strategie di posizionamento. Analizzare le motivazioni di ciascuna parte richiede di andare oltre le dichiarazioni pubbliche e guardare ai modelli di business sottostanti.

Google sostiene di proteggere gli utenti dallo spam, e questa affermazione ha una sua validità oggettiva. Il parasite SEO è un problema reale: siti autorevoli che vendono porzioni delle proprie URL a operatori commerciali creano effettivamente distorsioni nei risultati di ricerca. Un utente che cerca informazioni finanziarie e si ritrova su un subdomain di Forbes con contenuti di affiliazione poco trasparenti ha ragione di sentirsi ingannato. L'algoritmo di Google, in questo caso, sta tentando di ristabilire una coerenza tra l'aspettativa dell'utente e il contenuto effettivamente servito.

Tuttavia, questa narrazione protettiva si scontra con un dato economico ineludibile: Google beneficia direttamente dalla riduzione del traffico verso l'esterno. Ogni utente che rimane all'interno dell'ecosistema Google per più tempo è potenzialmente esposto a più pubblicità di Google, utilizza più servizi di Google, genera più dati per Google. Le zero-click searches non sono un effetto collaterale indesiderato, ma una caratteristica del sistema. Quando l'azienda dichiara che sta "combattendo lo spam", sta anche costruendo un giardino recintato sempre più autosufficiente.

Dall'altra parte, gli editori denunciano un trattamento discriminatorio, e anche qui l'argomento ha fondamenti concreti. La distinzione tra contenuto commerciale legittimo e spam parassitario è spesso sfumata. Una testata che pubblica guide all'acquisto ben curate, con link di affiliazione trasparenti, sta forse facendo qualcosa di diverso da quello che fa Wirecutter del New York Times? La differenza sta nella qualità e nell'onestà editoriale, non nella presenza o assenza di finalità commerciali.

Ma anche la posizione degli editori nasconde ambiguità non trascurabili. Molte testate hanno per anni costruito modelli di business opachi, dove la linea tra giornalismo e pubblicità si è progressivamente assottigliata. Il native advertising, quando ben fatto, può essere informativo e utile. Quando mal fatto, diventa indistinguibile dallo spam che Google dice di combattere. Gli editori che oggi protestano contro il declassamento sono in molti casi gli stessi che hanno accettato per anni di ospitare contenuti commerciali poco trasparenti, cercando di massimizzare i ricavi a breve termine a scapito della credibilità a lungo termine.

La Commissione Europea, infine, si muove in un equilibrio delicato tra protezione della concorrenza e tutela dell'ecosistema informativo. Il DMA nasce con l'obiettivo di impedire che i gatekeeper digitali utilizzino la loro posizione dominante per distorcere i mercati. Google, con il suo controllo quasi monopolistico della ricerca, rientra perfettamente in questa categoria. Ma la domanda complessa è: quando una modifica algoritmica diventa abuso di posizione dominante? Se Google migliora realmente l'esperienza utente combattendo lo spam, può l'UE imporre di non farlo per tutelare i ricavi degli editori?

Scacco o stallo?

Le strade che si aprono davanti ai protagonisti di questa vicenda sono molteplici, ciascuna con conseguenze profonde per il futuro del web. L'esito più immediato potrebbe essere un accordo sottobanco, dove Google accetta modifiche marginali alla propria policy in cambio dell'archiviazione dell'indagine. Questa soluzione, già vista in passato in altre controversie antitrust, lascerebbe però irrisolte le questioni di fondo.

Uno scenario più drastico prevede sanzioni pesanti e rimedi strutturali. La Commissione potrebbe obbligare Google a rendere più trasparenti i criteri di ranking, a creare meccanismi di appeal per gli editori penalizzati, o addirittura a separare il business della ricerca da quello della pubblicità. Misure simili sono state applicate in altri casi di abuso di posizione dominante, ma la loro efficacia pratica rimane dibattuta.

L'ipotesi più estrema, ma non del tutto implausibile, è che Google decida di ritirare alcune funzionalità in Europa, come minacciato più volte in passato. La chiusura di Google News in Spagna nel 2014 ha dimostrato che l'azienda è disposta a giocare pesante quando ritiene che le regolamentazioni locali minaccino il proprio modello di business. Una mossa simile oggi avrebbe conseguenze ancora più drammatiche, data la dipendenza quasi totale dell'ecosistema editoriale europeo dal traffico di Google.

Il contesto geopolitico aggiunge ulteriori complessità. Le dichiarazioni pubbliche dell'amministrazione Trump, che ha più volte criticato le sanzioni europee contro le aziende tecnologiche americane, potrebbero trasformare una disputa commerciale in un incidente diplomatico. Google, come altre Big Tech statunitensi, potrebbe invocare la protezione politica del proprio governo, trasformando l'indagine UE in un caso di tensione transatlantica.

Ma forse la conseguenza più profonda di questa vicenda non riguarda Google o gli editori, bensì il futuro dell'informazione online. Se gli utenti si abituano a ottenere risposte sintetiche dall'intelligenza artificiale senza mai visitare le fonti originali, quale incentivo rimane a produrre contenuti di qualità? Se gli editori non riescono a monetizzare il traffico organico perché Google lo trattiene nel proprio ecosistema, come finanzieranno il giornalismo investigativo?

Questi interrogativi non hanno risposte semplici. L'equilibrio tra innovazione tecnologica e sostenibilità dell'ecosistema informativo è fragile, e ogni intervento regolatorio rischia di produrre effetti inattesi. Quel che è certo è che il modello costruito negli ultimi vent'anni, dove Google funzionava come grande distributore universale di traffico verso il web aperto, si sta rapidamente dissolvendo. Al suo posto emerge un sistema dove l'accesso all'informazione è sempre più mediato da intelligenze artificiali che sintetizzano, rielaborano e presentano contenuti senza necessariamente portare gli utenti alla fonte.

La sfida per i regolatori europei sarà trovare un punto di equilibrio che protegga la concorrenza senza soffocare l'innovazione, che tuteli gli editori senza cristallizzare modelli di business obsoleti, che garantisca agli utenti accesso a informazioni di qualità senza imporre artificialmente modi di navigare il web che non corrispondono più ai comportamenti reali.

Nel frattempo, mentre Bruxelles e Mountain View si fronteggiano in quello che potrebbe rivelarsi un lungo braccio di ferro legale, l'ecosistema digitale continua a trasformarsi. Gli editori più accorti stanno già diversificando le fonti di traffico, investendo in newsletter dirette, community proprietarie, e modelli di subscription. Altri, meno adattabili o semplicemente più piccoli, rischiano di essere travolti da una tempesta perfetta: meno traffico da Google, più concorrenza da contenuti sintetici generati dall'AI, e la crescente difficoltà di monetizzare un'attenzione sempre più frammentata.

La vera domanda, alla fine, non è chi vincerà questa specifica battaglia legale. È se riusciremo a costruire un ecosistema digitale dove chi produce informazioni di qualità possa essere adeguatamente remunerato, dove le piattaforme tecnologiche rispondano di come esercitano il loro potere di intermediazione, e dove gli utenti mantengano accesso a una pluralità di voci e prospettive. Il "gioco" tra Bruxelles e Mountain View è solo l'ultimo capitolo di una trasformazione che ridefinirà profondamente come produciamo, distribuiamo e consumiamo informazioni nel XXI secolo.