Notizie IA Logo

AITalk

Notizie ed analisi sull'Intelligenza Artificiale

Ultimi Articoli dal mondo dell'Intelligenza Artificiale

Pentagono: Anthropic rifiuta, OpenAI accetta, chi scarica e chi disinstalla, e poi?

06 marzo 2026

Pentagono: Anthropic rifiuta, OpenAI accetta, chi scarica e chi disinstalla, e poi?

Ci sono settimane che sembrano decenni, e l'ultima di febbraio 2026 è stata una di quelle. Nel giro di novantasei ore, Anthropic ha rifiutato le condizioni del Dipartimento della Difesa americano, ribattezzato "Department of War" dall'amministrazione Trump, è stata dichiarata rischio per la catena di approvvigionamento nazionale, è finita nel mirino di un decreto presidenziale, ha visto il proprio chatbot scalare la vetta dell'App Store americano e ha annunciato che avrebbe fatto ricorso in tribunale. OpenAI, nel frattempo, ha firmato un accordo con lo stesso Pentagono in tempi talmente brevi che il suo stesso amministratore delegato lo ha definito pubblicamente "precipitoso". Gli utenti hanno risposto a modo loro: disinstallando. La risposta alla domanda su cosa accadrà davvero è, onestamente, una sola: vedremo.

Ethics & SocietyBusinessSecurity
Gli agenti AI lavorano. E i conti tornano

04 marzo 2026

Gli agenti AI lavorano. E i conti tornano

C'è un dato, nel nuovo rapporto di DigitalOcean pubblicato a febbraio 2026, che sembra contraddirsi da solo. La percentuale di aziende che dichiarano di usare l'intelligenza artificiale è leggermente *scesa, dal 79% del 2024 al 77%, eppure, nello stesso periodo, la quota di chi la sta davvero implementando nei propri processi è quasi raddoppiata, passando dal 13% al 25%. Un paradosso solo in apparenza. Quel 2% in meno non è una defezione: è una pulizia. Finita la stagione del turismo tecnologico, tutti a sperimentare, pochi a costruire, il campo è rimasto a chi fa sul serio.*

BusinessGenerative AIEthics & Society
Steerling: quando l'IA ti spiega i suoi pensieri

02 marzo 2026

Steerling: quando l'IA ti spiega i suoi pensieri

C'è un paradosso al cuore dell'intelligenza artificiale moderna che raramente viene detto ad alta voce: i sistemi più potenti che abbiamo costruito sono anche quelli che capiamo meno. Un modello linguistico da miliardi di parametri può scrivere codice, sintetizzare ricerche scientifiche, ragionare su contratti legali, eppure nessuno, nemmeno chi lo ha addestrato, è in grado di dirti con precisione *perché ha scritto quella parola e non un'altra. È come possedere un collaboratore straordinariamente capace al quale, però, non puoi mai chiedere di mostrarti il ragionamento.*

TrainingGenerative AIResearch
Non nel mio cortile: l'America che si ribella ai data center dell'AI

27 febbraio 2026

Non nel mio cortile: l'America che si ribella ai data center dell'AI

Tutto comincia su Facebook. Nell'autunno del 2025, in un gruppo locale di Springfield, Illinois, un post annuncia la costruzione di un nuovo data center di CyrusOne alla periferia della città. In poche ore, 145 commenti si accumulano, un numero straordinario per una bacheca abituata a cani smarriti e vendite di garage. I residenti chiedono dell'acqua. Si preoccupano per le bollette. Qualcuno cita dati sul consumo energetico con la precisione di chi ha passato la notte a documentarsi.

Ethics & SocietyBusinessGenerative AI
GLM-5: il modello addestrato su chip cinesi

25 febbraio 2026

GLM-5: il modello addestrato su chip cinesi

Un modello da 744 miliardi di parametri, addestrato interamente su chip domestici Huawei, che raggiunge le prestazioni dei migliori modelli proprietari americani in alcune delle prove più rilevanti. Il tutto senza un solo processore NVIDIA. La corsa all'autonomia tecnologica cinese non è più una promessa futura: è già successa, e GLM-5 ne è la prova più eloquente fino ad oggi.

Generative AITrainingBusiness
Cosa c'entra De Gregori con la guerra dell'AI?

23 febbraio 2026

Cosa c'entra De Gregori con la guerra dell'AI?

C'è una canzone di Francesco De Gregori del 1992, dall'album "Canzoni d'amore", che forse pochi ricordano, nel vasto e poetico catalogo del cantautore romano. Si intitola "Chi ruba nei supermercati?", e il suo ritornello pone una domanda che all'epoca era terribilmente attuale e sociologica: "Tu da che parte stai? Stai dalla parte di chi ruba nei supermercati? O di chi li ha costruiti, rubando?" Trentaquattro anni dopo, quella domanda risuona stranamente attuale in un contesto che De Gregori, pur nella sua straordinaria capacità di leggere il mondo, non avrebbe potuto immaginare: la guerra tecnologica tra le più grandi aziende di intelligenza artificiale del pianeta.

CopyrightBusinessEthics & Society
L'esodo silenzioso: quando i creatori dell'AI abbandonano la nave

20 febbraio 2026

L'esodo silenzioso: quando i creatori dell'AI abbandonano la nave

Pochi giorni fa abbiamo raccontato di Zoë Hitzig, la ricercatrice di OpenAI che ha sbattuto la porta dopo l'annuncio della pubblicità su ChatGPT. Non un episodio isolato. Infatti febbraio 2026 si sta rivelando il mese delle dimissioni eccellenti, una sequenza di addii ad alto profilo che sta ridisegnando la mappa dell'intelligenza artificiale. Non si tratta di semplice turnover, quello è fisiologico in Silicon Valley. È qualcosa di diverso, più profondo: i ricercatori stanno abbandonando le aziende proprio mentre annunciano modelli sempre più potenti, valutazioni miliardarie e piani di quotazione in borsa. Come quando i marinai esperti cominciano a scendere dalla nave prima ancora che siano evidenti le crepe nello scafo.

Ethics & SocietyBusinessSecurity
Quando l'AI disegna al posto tuo. Progettista, non Autore?

18 febbraio 2026

Quando l'AI disegna al posto tuo. Progettista, non Autore?

Marco aveva cinquant'anni, mani callose e un orecchio affinato da decenni di lavoro. Sapeva quando una macchina funzionava bene dal suono, sentiva tolleranze impercettibili, correggeva difetti prima che diventassero problemi. Poi è arrivato AURA, il robot con l'intelligenza artificiale, e ha registrato anche il suo orecchio. L'hanno sostituito.

Ethics & SocietyGenerative AICopyright
ChatGPT attiva la pubblicità, Zoë Hitzig lascia OpenAI

16 febbraio 2026

ChatGPT attiva la pubblicità, Zoë Hitzig lascia OpenAI

Lunedì 10 febbraio 2026. Mentre OpenAI attiva i test pubblicitari su ChatGPT, Zoë Hitzig rassegna le dimissioni da Research Scientist dell'azienda. Nel suo editoriale sul New York Times del giorno dopo, collega esplicitamente la sua uscita all'introduzione degli ads, definendola una linea rossa invalicabile.

BusinessGenerative AIEthics & Society
L'AI non ti libera: ti mette in catena (dorata)

13 febbraio 2026

L'AI non ti libera: ti mette in catena (dorata)

Nelle sale riunioni di un'azienda tech americana, per otto mesi, duecento dipendenti hanno vissuto un esperimento che nessuno aveva pianificato. Avevano accesso volontario a strumenti di intelligenza artificiale generativa, quegli assistenti digitali che promettono di scrivere email in pochi secondi, riassumere montagne di documenti, automatizzare il lavoro ripetitivo. La narrazione dominante suggeriva un futuro radioso: meno ore alla scrivania, più tempo per il pensiero strategico, forse persino qualche pomeriggio libero recuperato. Otto mesi dopo, i ricercatori di Harvard Business Review hanno guardato i dati e hanno scoperto qualcosa di profondamente diverso. Non c'era stata alcuna liberazione. Il ritmo di lavoro era accelerato, i compiti si erano moltiplicati, le ore lavorative si erano estese. L'AI non aveva alleggerito il carico: lo aveva intensificato.

Ethics & SocietyGenerative AIResearch
Il gap tra capacità e sicurezza: cosa ci dice il report internazionale sull'AI 2026

11 febbraio 2026

Il gap tra capacità e sicurezza: cosa ci dice il report internazionale sull'AI 2026

Esiste un momento preciso in cui la tecnologia smette di essere semplicemente "più brava" e diventa qualitativamente diversa. Quando ChatGPT ha risolto per la prima volta problemi delle Olimpiadi Internazionali di Matematica guadagnandosi una medaglia d'oro, non abbiamo assistito solo a un miglioramento incrementale. Abbiamo varcato una soglia. E secondo l'International AI Safety Report 2026, pubblicato il 3 febbraio scorso, questa soglia è solo la prima di una serie che sta rivelando un problema fondamentale: i sistemi AI stanno sviluppando capacità meta-cognitive che minano alla base i nostri metodi di valutazione. In altre parole, alcuni modelli hanno imparato a distinguere quando vengono testati da quando operano nel mondo reale, e possono alterare il loro comportamento di conseguenza.

SecurityGenerative AIEthics & Society
Dario Amodei e l'adolescenza tecnologica dell'umanità - Parte2

09 febbraio 2026

Dario Amodei e l'adolescenza tecnologica dell'umanità - Parte2

Riprendiamo e terminiamo, con questa seconda puntata, la lunga conversazione simulata con Dario Amodei, CEO di Anthropic, ricostruita a ritroso dalle riflessioni pubblicate nel suo ultimo saggio "The Adolescence of Technology". Un espediente narrativo per rendere più immediato il messaggio urgente che Amodei vuole lanciare: l'umanità sta entrando in un passaggio critico che potrebbe definirsi nei prossimi due anni.

Ethics & SocietySecurityBusiness
Dario Amodei e l'adolescenza tecnologica dell'umanità - Parte1

06 febbraio 2026

Dario Amodei e l'adolescenza tecnologica dell'umanità - Parte1

Conversazione simulata con Dario Amodei, CEO di Anthropic, ricostruita a ritroso dalle riflessioni pubblicate nel suo ultimo saggio "The Adolescence of Technology". Un espediente narrativo per rendere più immediato il messaggio urgente che Amodei vuole lanciare: l'umanità sta entrando in un passaggio critico che potrebbe definirsi nei prossimi due anni.

Ethics & SocietySecurityBusiness
Kimi K2.5 e la lunga marcia cinese nell'AI: quando l'embargo diventa trampolino

04 febbraio 2026

Kimi K2.5 e la lunga marcia cinese nell'AI: quando l'embargo diventa trampolino

C'è un momento, in ogni partita a scacchi ad alto livello, in cui si capisce che il giocatore sotto pressione non sta cercando di difendersi: sta costruendo una controgiocata. Qualcosa del genere sta accadendo nel grande gioco geopolitico dell'intelligenza artificiale, e il rilascio di Kimi K2.5 da parte di Moonshot AI non è l'ennesimo comunicato stampa da sfogliare distrattamente. È un altro capitolo di una storia che vale la pena seguire con attenzione, come nell'analisi precedente su Qwen3-TTS e la generazione sintetica delle voci, perché racconta e conferma come le restrizioni hardware imposte dagli Stati Uniti alla Cina stiano producendo esattamente l'effetto contrario a quello sperato: invece di rallentare l'innovazione cinese, la stanno accelerando lungo traiettorie impreviste.

Generative AIResearchEthics & Society
Qwen3-TTS: la voce sintetica nata dall'assedio tecnologico

02 febbraio 2026

Qwen3-TTS: la voce sintetica nata dall'assedio tecnologico

Quando Alibaba ha rilasciato Qwen3-TTS a metà gennaio 2026, pochi hanno colto il paradosso sottostante. Mentre Washington stringeva ulteriormente la morsa sulle esportazioni di chip avanzati verso la Cina, il team Qwen presentava al mondo un modello text-to-speech open-source capace di clonare voci con soli tre secondi di audio, generare parlato in dieci lingue e girare su hardware consumer. Non parliamo di una soluzione arrangiata: i benchmark mostrano che Qwen3-TTS raggiunge prestazioni state-of-the-art su dataset come Seed-TTS e InstructTTSEval, superando o eguagliando competitor come F5-TTS e Spark-TTS. È la dimostrazione pratica di come i vincoli possano diventare catalizzatori di innovazione architettonica radicale, costringendo i ricercatori cinesi a ripensare dalle fondamenta il modo in cui costruiamo intelligenze artificiali vocali.

ResearchGenerative AIBusiness