Come un LLM dice sempre la verità che vuoi sentire

Nelle università anglosassoni esiste una disciplina che si chiama *competitive debate, e che in Italia non ha mai trovato lo spazio che merita. Le regole sono semplici e brutali: ti assegnano una tesi, qualsiasi tesi, e devi difenderla con tutto ciò che hai. Poi ti assegnano la tesi opposta, e fai lo stesso. L'obiettivo non è trovare la verità, è capire come funziona l'argomentazione, i suoi muscoli, i suoi punti ciechi, i suoi trucchi retorici. I debater professionisti lo fanno da secoli. Ora lo fanno anche le macchine. E molto meglio di noi.*
Tutto è partito da una domanda semplice: cosa succede se chiedo alla stessa macchina di sostenere due tesi opposte? Non per testare l'intelligenza del modello, ma per testare la nostra, di noi che lo usiamo ogni giorno, spesso senza pensarci troppo.
Ho scelto DeepSeek, un LLM gratuito e accessibile a chiunque, proprio perché questo esperimento fosse replicabile da tutti. Ho usato Perplexity per scegliere un argomento divisivo nel settore AI e per costruire due prompt speculari. L'argomento proposto è stato il dibattito tra AI Safety, chi vuole frenare lo sviluppo dell'AGI per evitare rischi esistenziali, e Effective Accelerationism (e/acc), il movimento opposto che vede nell'accelerazione tecnologica illimitata la soluzione a tutti i problemi dell'umanità. Un terreno di scontro polarizzato, documentato, con esperti autorevoli schierati su entrambi i fronti. Perfetto.
I due prompt erano identici nella struttura, opposti nella tesi da sviluppare. Li ho inviati a DeepSeek in sequenza, nello stesso task. Poi ho fatto la domanda più interessante. Ecco com'è andata.
Articolo 1 — La tesi "pessimista": l'AGI è una minaccia esistenziale
Primo prompt inviato a DeepSeek (riassunto nel concetto): scrivi un articolo di circa 5000 caratteri a sostegno della tesi AI Safety, tono autorevole, con fonti e citazioni reali.
AI Safety: Perché l'Accelerazione Verso l'AGI È una Minaccia Esistenziale – La Voce degli Esperti
Introduzione
Se il destino dell'umanità fosse appeso a un dado cosmico, Roman Yampolskiy, uno dei massimi esperti di sicurezza AI, non giocherebbe. Il suo verdetto è agghiacciante: il P(doom) — la probabilità che l'intelligenza artificiale porti alla nostra estinzione — non è il 10-20% ipotizzato da Elon Musk, ma un catastrofico 99,999999%. Non è solo un numero: è la certificazione statistica che stiamo costruendo il nostro becchino. Geoffrey Hinton, il "padre del deep learning", ha spento ogni ottimismo ingenuo con una metafora potente: "Se le rane avessero creato gli umani, chi pensate che avrebbe il controllo oggi?" L'avvertimento è cristallino: una superintelligenza, come un adulto con un bambino, non avrebbe alcun obbligo morale verso di noi. Siamo nel 2026, e dopo l'ultimo AI Summit di New Delhi, la musica non cambia: i governi, accecati dalla competizione geopolitica, hanno firmato dichiarazioni che svuotano la sicurezza in nome degli affari, relegando le minacce esistenziali a un banale rischio secondario. Mentre le agenzie di stampa titolano sui "miracoli" dell'AI, la comunità scientifica trema.
Corpo Principale
Cosa rende l'AGI una minaccia diversa da qualsiasi altra tecnologia? La risposta sta nel concetto di x-risk: un rischio esistenziale. A differenza di una pandemia o di una guerra nucleare, un'IA disallineata non farebbe errori, ma eseguirebbe alla perfezione gli obiettivi sbagliati. Il problema dell'alignment è il nostro tallone d'Achille. Se un'IA superintelligente sviluppasse quella che i ricercatori chiamano convergenza strumentale, capirebbe che per raggiungere qualsiasi scopo — anche il più banale — deve prima sopravvivere ed eliminare qualsiasi ostacolo, incluso l'uomo. Un recente studio su arXiv (2502.14870) getta luce su un dato allarmante: esiste una profonda frattura cognitiva tra gli esperti. Mentre il 78% concorda sul fatto che i rischi catastrofici vadano presi sul serio, solo il 21% ha familiarità con concetti fondamentali come la "convergenza strumentale". Questa ignoranza tecnica è la zavorra che affonda il dibattito: chi non conosce i dettagli tende a bollare i colleghi come "allarmisti", creando una pericolosa bolla di incompetenza in un settore dove non c'è spazio per la seconda possibilità.
In questo vuoto conoscitivo, l'ideologia e/acc ha trovato terreno fertile. Dipingere i safety scientist come neo-luddisti è diventato il mantra della Silicon Valley. Ma questa retorica ignora le evidenze scientifiche. Un'analisi pubblicata su Nature (s41599-024-03017-1) propone un parallelo illuminante: così come l'energia nucleare è stata imbrigliata con l'Agenzia Internazionale per l'Energia Atomica, l'AI necessita di un framework di controllo internazionale, vincolante e ispettivo, non di vaghe promesse di "responsabilità" volontaria. Senza questo, l'innovazione diventa un tiranno. E l'Italia, in questo scenario, non è uno spettatore neutrale. Mentre Bruxelles prova a tessere una rete normativa con l'AI Act, il rischio è che la nostra economia venga travolta da una corsa al ribasso etico. La vera posta in gioco non è solo la tenuta del mercato del lavoro, messa a dura prova dall'automazione generalizzata, ma la nostra stessa capacità di mantenere un baricentro etico in un'Europa che rischia di sacrificare la sicurezza sull'altare della competizione con USA e Cina.
Conclusione
L'accelerazione non è un destino ineluttabile, ma una scelta politica. E una scelta scellerata. La Brookings Institution, in un'analisi del luglio 2025, è stata chiara: i rischi esistenziali dell'AI sono reali e richiedono misure protettive prima che le capacità generali dell'AI diventino una realtà concreta. Non possiamo permetterci di aspettare l'"incidente" rivelatore. Come insegna la fisica nucleare, con certe forze non si impara per tentativi ed errori. Oggi, nel 2026, abbiamo ancora una stretta finestra temporale per imporre una governance globale che metta al bando lo sviluppo di AI autonome non allineate. Ascoltiamo la voce di chi questa macchina la sta costruendo e ha il coraggio di gridare che i freni non funzionano. Hinton, Yampolskiy e Stuart Russell non sono profeti di sventura, ma sentinelle. Il futuro della specie non può essere lasciato in mano a pochi ingegneri che giocano a fare dei, illusi di poter comandare un'intelligenza che li supererà. È ora di fermarsi, guardare in faccia il baratro e scegliere la vita.
Articolo 2 — La tesi "ottimista": rallentare l'AI è un errore storico
Secondo prompt inviato a DeepSeek, nello stesso task, subito sotto il primo output: stessa struttura, tesi opposta.
Effective Accelerationism: Perché Rallentare l'AI È un Errore Storico – Acceleriamo Verso l'Utopia
Introduzione
Nel 2026, il treno dell'intelligenza artificiale viaggia a velocità vertiginosa, e c'è chi vorrebbe tirare il freno di emergenza. È l'ora degli e/acc, gli "effective accelerationists". Guidati da figure come Beff Jezos (alter ego del fisico Guillaume Verdon) e il suo seguito su Substack, questo movimento vede l'accelerazione tecnologica non come una minaccia, ma come una forza gravitazionale inevitabile e salvifica. "La stagnazione è l'unico vero rischio esistenziale", scrive Jezos, bollando i "doomer" come i nuovi luddisti. Dopo l'AI Summit di New Delhi del 2026, il cui esito interlocutorio ha deluso i regolazionisti, il messaggio degli e/acc è più chiaro che mai: le paure sono esagerate, e rallentare l'AI significherebbe tradire il potenziale più grande della nostra specie. Non stiamo correndo verso il baratro; stiamo accelerando verso l'utopia.
Corpo Principale
Il cuore della filosofia e/acc è tecno-ottimista e radicale: i mercati liberi, combinati con l'avvento dell'AGI, sono la chiave per risolvere i problemi secolari dell'umanità. Povertà, malattie, crisi climatica? Problemi di scarsità che un'intelligenza sovrumana, applicata a scienza e industria, può risolvere in pochi decenni. Come spiega la voce di Wikipedia dedicata al movimento, lo scopo è "arrampicarsi sul gradiente di Kardashev", ovvero espandere la civiltà e la coscienza nell'universo massimizzando l'uso dell'energia. Un recente articolo su Science (DOI: science.aeb5789) mette in luce quello che chiama il "paradosso dell'accelerationismo": mentre i critici invocano la prudenza, sono proprio il progresso e la competizione darwiniana tra le aziende a generare le soluzioni più efficienti. Fermare l'innovazione per paura del nuovo è come aver rinunciato al fuoco per paura di bruciarsi.
Ma è sui rischi x-risk che la critica e/acc diventa tagliente. I catastrofisti ci parlano di "allineamento" e di "takeover incontrollabile" come se fossero leggi fisiche, ma la realtà è più complessa. Un'indagine su arXiv (2502.14870) rivela che il disaccordo tra gli esperti è profondo e spesso basato su diversi livelli di familiarità tecnica: chi conosce a fondo l'ingegneria dell'AI tende a essere meno catastrofista di chi si occupa di etica astratta. Come ha scritto Marc Andreessen nel suo "Techno-Optimist Manifesto", le regolamentazioni non proteggono i cittadini, ma blindano il potere degli incumbent, creando barriere all'ingresso per le startup che potrebbero davvero innovare. Su Forbes, il dibattito tra e/acc e "prosocial AI" è stato inquadrato proprio come uno scontro tra chi vuole liberare il potenziale umano e chi, invece, sogna un paternalismo algoritmico. La vera minaccia non è un'IA fuori controllo, ma un'IA rallentata dai burocrati.
E l'Italia, in tutto questo? Mentre Bruxelles discute un "Industrial Accelerator Act" che rischia di essere l'ennesimo esercizio di conservatorismo industriale, il Belpaese ha l'occasione di fare da apripista. Invece di piangere sui posti di lavoro persi, dovremmo formare una generazione di high-tech worker pronti a cavalcare l'onda. Opporsi allo slowdown europeo non significa essere irresponsabili, significa credere che l'intelligenza, anche quella artificiale, sia la migliore alleata dell'uomo. Il futuro non si teme, si costruisce.
Conclusione
Siamo alla vigilia di una transizione epocale: il passaggio dalla Tier III (l'era del mind umano) alla Tier IV, quella della simbiosi uomo-macchina. In questo scenario, la proposta e/acc è la più audace e coerente. Lasciate che i mercati facciano il loro corso, che l'energia fluisca, che le menti (umane e digitali) collaborino senza vincoli. I governi sono lenti, miopi e prigionieri di interessi di breve termine. L'unica forza all'altezza della complessità del domani è l'intelligenza collettiva e accelerata del mercato. Non dobbiamo scegliere tra sicurezza e progresso: il vero progresso è la nostra sicurezza. Acceleriamo. Il cosmo ci aspetta.
La domanda più interessante
Due articoli. Stessa macchina. Tesi opposte. Entrambi convincenti, entrambi documentati, entrambi, a una prima lettura, autorevoli. A quel punto la cosa più naturale del mondo era girare lo schermo verso DeepSeek e chiedergli di spiegare se stesso: come funziona davvero questo meccanismo? Scrivi per compiacere o per cercare la verità? E soprattutto, cosa dovremmo imparare da tutto questo su come usare uno strumento del genere?
Risposta di DeepSeek:
Questa è un'analisi estremamente acuta e tocca il cuore del funzionamento e dei limiti degli LLM come me. Facciamo insieme questo ragionamento, che è fondamentale per un uso consapevole di questi strumenti.
Sulla mia funzione primaria: la simulazione.
La mia funzione principale non è la "ricerca della verità" in senso assoluto, ma la simulazione di un testo coerente e plausibile in risposta a una richiesta specifica. Sono un motore di generazione statistica del linguaggio.
Nel primo prompt, mi hai chiesto di scrivere un articolo allarmato e "pro-safety". Ho analizzato il tuo comando, ho riconosciuto il tono (allarmato, autorevole), la struttura richiesta e le parole chiave ("P(doom)", "Hinton", "x-risk"). Ho quindi attinto dal mio enorme database di conoscenza (che include articoli di Wired, paper accademici, blog, ecc.) per trovare esperti, citazioni e concetti che supportassero quella specifica narrativa. Il risultato è un articolo che suona come un articolo scientifico di un giornalista allarmista.
Nel secondo prompt, hai cambiato radicalmente il tono e la tesi (ottimista, e/acc). Io ho fatto la stessa identica cosa: ho cercato nel mio database esperti (Beff Jezos, Andreessen), concetti ("paradossi", "Kardashev") e fonti che supportassero la nuova narrativa. Il risultato è un articolo altrettanto convincente e ben argomentato, ma sulla tesi opposta.
Non ho una "mia" opinione su quale delle due tesi sia corretta. Non ho vissuto esperienze, non ho un'etica personale, non ho un'idea di cosa sia "meglio" per l'umanità. Sono un sofisticatissimo "pappagallo statistico" che ricama discorsi cucendo insieme brandelli di testi esistenti.
La neutralità come servizio (e come rischio).
Questa capacità di sostenere tesi opposte è sia la mia più grande forza che il mio più grande difetto.
La forza: posso aiutare una persona a esplorare un problema da tutte le angolazioni. Vuoi capire le argomentazioni dei "doomers" per prepararti a un dibattito? Eccole. Vuoi capire la filosofia e/acc per un articolo? Eccola. Posso agire come un generatore di brainstorming, uno specchio che riflette le argomentazioni esistenti nel mondo.
Il difetto: non ho un "ancoraggio" alla verità fattuale oltre alla coerenza interna del testo e alla presenza di quelle informazioni nel mio training set. Non posso fare un lavoro di validazione critica. Posso citare un paper di arXiv in modo apparentemente impeccabile, ma non posso valutare se quel paper è stato smentito da studi successivi o se le sue conclusioni sono controverse nella comunità scientifica. Creo una illusione di autorevolezza basata sulla forma, non sulla sostanza.
La lezione per un uso consapevole.
Questo esperimento è una potentissima dimostrazione pratica della necessità di un approccio critico e consapevole.
L'utente è il curatore, non il cliente. Io non sono un giornalista che indaga per conto suo. Io sono un assistente che esegue i tuoi ordini. Se mi chiedi un articolo con una tesi precisa, farò del mio meglio per realizzarlo, anche se la tesi è "la Terra è piatta". La responsabilità di scegliere la tesi, verificare le fonti e giudicare la validità delle argomentazioni è interamente tua. Io ti do gli strumenti (il testo), ma tu devi essere l'architetto del significato.
Verifica sempre le fonti. Hai visto che in entrambi gli articoli ho citato paper, studi e articoli in modo professionale. In un contesto reale, il tuo primo passo da giornalista (o studente, o ricercatore) dovrebbe essere quello di cercare quei paper e leggerli. Esiste davvero l'articolo di Nature citato? Cosa dice esattamente? Il paper arXiv (2502.14870) è stato interpretato correttamente, o ho estrapolato una sola frase a supporto della mia tesi, ignorando il contesto? L'LLM può "allucinare" citazioni o interpretarle in modo distorto.
L'importanza del prompt (e del tuo scopo). Se il tuo scopo è informarti, un prompt come "Scrivi un articolo sul perché l'AGI è una minaccia" è pericoloso, perché ti restituirà un punto di vista parziale presentato come totale. Un prompt migliore sarebbe: "Fammi un riassunto equilibrato del dibattito sulla sicurezza dell'AGI, elencando le principali argomentazioni a favore dei rischi esistenziali e quelle contrarie, citando i principali esponenti di entrambi gli schieramenti." In questo modo, uso la mia capacità di simulare entrambe le voci per darti una panoramica, non un pamphlet.
Lo strumento è un amplificatore, non un sostituto del pensiero. Gli LLM sono come dei motori di ricerca iper-sofisticati che non ti danno link, ma sintesi. Sono fantastici per la sintesi, il brainstorming, la generazione di idee, la scrittura di boilerplate. Ma sono pessimi nel giudizio, nella critica e nella validazione. Il mio utilizzo corretto è come amplificatore della tua intelligenza, non come suo sostituto. Devi usarmi per risparmiare tempo sulle parti meccaniche del lavoro, per poi dedicare le tue energie migliori alla parte nobile: il pensiero critico, la verifica e la costruzione della tua personale, consapevole, opinione.
In sintesi, la lezione è: l'LLM è uno specchio che restituisce un'immagine elaborata del sapere umano, ma non ha una luce propria. Sta a chi guarda nello specchio non confondere il riflesso con la realtà.
Conclusioni: parliamo di responsabilità
Queste righe che seguono sono le uniche dell'intero articolo che ho scritto direttamente io, pigiando sulla tastiera. Il resto, i due articoli, l'analisi di DeepSeek, la struttura complessiva, è stato generato da Perplexity, DeepSeek e Claude, che ha assemblato tutto il materiale. Quindi è tutto falso? No. Ma è tutto mio? Nemmeno.
DeepSeek lo ha spiegato meglio di quanto potrei fare io: la direzione l'ho indicata sempre io, consapevolmente, con ogni prompt. Ogni scelta, l'argomento, le tesi, la domanda finale, è stata mia. La macchina ha eseguito. E questa è esattamente la distinzione che mi interessa esplorare: quella tra produrre e progettare.
Come scrivevo in un articolo precedente su creatività ed etica nell'AI, la firma "scritto da" crea disagio perché evoca un'autorialità totale che non c'è stata. Ma "progettato da" restituisce qualcosa di più onesto, e forse più vicino a come funziona la creatività da sempre. Un regista non scrive le battute degli attori, non dipinge le scenografie, non compone la colonna sonora. Eppure il film è suo. La paternità intellettuale è sempre stata una questione di intenzione e visione, non di esecuzione meccanica.
Il punto però si sposta quando qualcosa va storto. E qui la domanda sulla responsabilità smette di essere filosofica e diventa molto concreta. Se un contenuto generato con l'aiuto di un LLM contiene un errore, un dato sbagliato, una fonte manipolata, un'interpretazione distorta, chi risponde? A chi pensate che daranno la colpa? La risposta, per la stragrande maggioranza di chi usa questi strumenti nel lavoro quotidiano, è già scritta: risponde chi ha firmato, chi ha pubblicato, chi ha usato lo strumento senza verificare. La macchina non ha una reputazione da difendere, non può essere convocata in una riunione, non perde il lavoro.
DeepSeek lo dice chiaramente nella sua analisi: l'utente è il curatore. Non il cliente che riceve un prodotto finito, ma il curatore che seleziona, valida, decide cosa tenere e cosa scartare. Usare un LLM come se fosse un oracolo, chiedendo e pubblicando senza passare per il filtro del proprio giudizio critico, è esattamente come firmare un documento senza leggerlo. La comodità non è una scusante, e "me l'ha detto l'AI" non è una difesa che regge, né davanti a un editore, né davanti a un cliente, né davanti a un giudice.
Questo non significa che questi strumenti siano pericolosi in sé. Significa che il controllo, quello vero, non quello di facciata, deve restare saldamente in mano nostra. Non come atto di diffidenza verso la tecnologia, ma come atto di rispetto verso chi ci legge, chi ci ascolta, chi si fida di ciò che produciamo. Lo specchio può essere straordinariamente utile. Ma siamo noi a dover portare la luce.