Ultimi Articoli dal mondo dell'Intelligenza Artificiale
26 gennaio 2026
Repetita Iuvant: come ripetere il prompt raddoppia le performance dei LLM
Repetita iuvant, dicevano i latini. Le cose ripetute giovano. E se questa massima, vecchia di duemila anni, si rivelasse anche l'euristica computazionale più efficiente per i modelli linguistici più avanzati del 2026? È quello che emerge da un paper pubblicato da Google Research a gennaio, dove tre ricercatori, Yaniv Leviathan, Matan Kalman e Yossi Matias, hanno scoperto qualcosa di sconcertante nella sua semplicità: basta ripetere due volte lo stesso prompt per migliorare significativamente le performance di GPT, Claude, Gemini e Deepseek. Niente Chain-of-Thought elaborate, niente prompt engineering sofisticato. Letteralmente: copia, incolla.
23 gennaio 2026
Quando i modelli scientifici iniziano a pensare uguale
Vi ricordate di quando abbiamo parlato dell'AI slop, quella valanga di contenuti sintetici che sta inondando YouTube e il resto dell'internet? La ricerca di Kapwing ci aveva mostrato un quadro allarmante: il 21% dei video raccomandati ai nuovi utenti è puro "slop" generato da AI, contenuti prodotti in massa senza supervisione umana, progettati solo per macinare visualizzazioni. Altri 33% ricadono nella categoria "brainrot", clip ripetitive e ipnotiche prive di sostanza. In totale, oltre la metà dei primi 500 video che un nuovo account YouTube incontra non contiene creatività umana significativa.
21 gennaio 2026
L'internet che si mangia la coda: quando l'AI genera spazzatura che alimenta altra AI
C'è una scena in *The Thing di John Carpenter dove l'alieno assimila gli organismi terrestri creando copie sempre più degradate, sempre meno perfette. Ogni iterazione perde qualcosa dell'originale finché la distinzione tra autentico e replica diventa impossibile. È un'immagine potente per descrivere quello che sta accadendo all'ecosistema digitale: l'intelligenza artificiale sta consumando contenuti umani per rigenerarli in forma sempre più corrotta, alimentando un ciclo di degrado progressivo che gli scienziati chiamano "model collapse" ma che potremmo definire più semplicemente come l'internet che si mangia la coda.*
19 gennaio 2026
Oltre il muro del contesto: i Recursive Language Models sfidano il limite invisibile dell'AI
Esiste un problema nella moderna intelligenza artificiale di cui si parla poco, ma che ogni sviluppatore e utente intensivo di chatbot ha sperimentato almeno una volta: la sensazione che il modello, dopo una conversazione prolungata, diventi progressivamente più stupido. Non è un'impressione soggettiva, né una vostra mancanza di chiarezza nelle richieste. È un fenomeno tecnico preciso che i ricercatori chiamano *context rot, letteralmente "marcescenza del contesto", e rappresenta uno dei limiti più frustranti dell'architettura attuale dei large language models.*
16 gennaio 2026
Come DeepSeek ha trasformato i vincoli hardware in innovazione matematica
Il primo gennaio 2026, mentre il mondo festeggiava l'inizio del nuovo anno, i ricercatori di DeepSeek pubblicavano su arXiv un paper che potrebbe cambiare il modo in cui addestriamo i grandi modelli linguistici. Non si trattava di un modello migliore o di un dataset più vasto, ma di qualcosa di più sottile e potenzialmente più dirompente: una riflessione radicale sull'architettura fondamentale che sostiene l'intelligenza artificiale moderna.
14 gennaio 2026
Il cassiere che non c'è: dalla delocalizzazione digitale all'inevitabile sostituzione con l'AI?
Quando un dipendente di Goldman Sachs entra da Yaso Kitchen nel New Jersey per ordinare ravioli cinesi, si aspetta di trovare un cassiere dietro il bancone. Invece trova Amber, una donna filippina che lo saluta da uno schermo montato su un tablet. La prima reazione è di confusione: "Ho pensato fosse una pubblicità, come quelle nei taxi", ha raccontato il cliente alla stampa. Amber invece lavora davvero, otto ore al giorno, ma da Manila. È il primo turno in remoto della sua vita.
12 gennaio 2026
Gli Small Language Models conquisteranno il 2026?
Andy Markus è Chief Data Officer di AT&T, non esattamente il tipo che si lascia trasportare dall'entusiasmo. Quando in un'intervista di fine 2025 ha dichiarato che gli Small Language Models fine-tuned diventeranno "il grande trend del 2026", molti osservatori hanno alzato un sopracciglio. Eppure quel sopracciglio potrebbe essere giustificato: il 2025 ha segnato un'inversione di rotta rispetto al mantra "più grande è meglio" che ha dominato l'AI negli ultimi tre anni.
09 gennaio 2026
'Intelligenza Artificiale e Ingegneria del Software: Cosa debbono fare le imprese'. Conversazione con Enrico Papalini
Enrico Papalini ha un curriculum che farebbe impallidire molti consulenti da LinkedIn: oltre vent'anni passati a costruire e orchestrare sistemi software dove l'errore non è un'opzione. Come Head of Software Development in Borsa Italiana, parte del gruppo Euronext, sta guidando l'adozione dell'intelligenza artificiale in un contesto dove la parola "crash" ha implicazioni che vanno ben oltre il bug di runtime. Prima ancora, ha attraversato il settore da diverse angolazioni: da startup tecnologiche a colossi finanziari, sempre nel ruolo di chi deve far funzionare le cose quando tutti gli altri possono permettersi che non funzionino.
07 gennaio 2026
Diffusion vs Autoregressione: Diamo un occhiata sotto il cofano degli LLM
Esiste un esperimento che rivela i limiti nascosti dei modelli linguistici più avanzati: chiedete a GPT-4 di completare una poesia cinese classica. Se fornite il primo verso, otterrete il secondo con precisione impressionante. Ma invertite la richiesta, partendo dal secondo verso per ottenere il primo, e l'accuratezza crolla da oltre l'ottanta percento al trentaquattro. Questo fenomeno, battezzato "reversal curse" dai ricercatori, non è un bug ma una conseguenza diretta del paradigma autoregressivo che governa l'intero ecosistema degli LLM contemporanei.
05 gennaio 2026
Si crede la Tour Eiffel. Pilotare un'IA dall'Interno: Lo Steering negli LLM
Nel maggio 2024, Anthropic pubblicò un esperimento che aveva il sapore di una dimostrazione chirurgica: Golden Gate Claude, una versione del loro modello di linguaggio che, improvvisamente, non riusciva più a smettere di parlare del celebre ponte di San Francisco. Chiedevi come spendere dieci dollari? Ti suggeriva di attraversare il Golden Gate pagando il pedaggio. Una storia d'amore? Nasceva tra un'automobile e l'amato ponte avvolto dalla nebbia. Cosa immaginava fosse il suo aspetto? Il Golden Gate Bridge, naturalmente.
02 gennaio 2026
L'entusiasmo europeo dell'AI: ma i numeri raccontano un'altra storia
Helsinki a fine novembre sembrava il centro dell'universo tech. Ventimila persone si sono riversate alla Slush 2025, l'evento annuale che trasforma la capitale finlandese in una sorta di Woodstock delle startup. L'energia era palpabile, i pitch deck volavano da una sala all'altra, gli investitori americani presenziavano in massa. Eppure, mentre i founder brindavano ai loro side event e gli analisti celebravano la "rinascita europea", i dati raccontavano una storia completamente diversa. Come in quella scena di *They Live dove John Carpenter mostrava la realtà nascosta dietro i cartelloni pubblicitari, basterebbe indossare gli occhiali giusti per vedere cosa si cela dietro la narrativa ottimistica.*
31 dicembre 2025
L'AI consumer nel 2025: Perché più scelta non ha creato più cambiamento
Il 2025 doveva essere l'anno della maturità per l'intelligenza artificiale consumer. OpenAI ha presentato dozzine di funzionalità: GPT-4o Image che aggiungeva un milione di utenti all'ora durante il picco, l'app standalone Sora, le chat di gruppo, Tasks, Study Mode. Google ha risposto con Nano Banana che ha generato 200 milioni di immagini nella prima settimana, seguito da Veo 3 per i video. Anthropic ha lanciato Skills e Artifacts. xAI ha portato Grok da zero a 9,5 milioni di utenti attivi giornalieri. Un'attività frenetica, un catalogo in espansione continua.
29 dicembre 2025
Google lancia Antigravity. I ricercatori la bucano in 24 ore
Ventiquattro ore. È il tempo che è bastato ai ricercatori di sicurezza per dimostrare come Antigravity, la piattaforma di sviluppo agentiva presentata da Google a inizio dicembre, possa trasformarsi in un perfetto strumento di esfiltrazione dati. Non stiamo parlando di un attacco teorico o di una vulnerabilità esotica che richiede competenze da hacker cinematografico. Parliamo di una sequenza d'attacco così semplice da sembrare quasi banale: un blog di implementazione tecnica avvelenato, un carattere nascosto in font da un punto, e l'agente AI che esfiltra credenziali AWS direttamente verso un server controllato dall'attaccante.
26 dicembre 2025
Quando la città si ferma: le fragilità nascoste dell'età autonoma
Il blackout di San Francisco ha paralizzato centinaia di robotaxi Waymo, rivelando la dipendenza critica dei sistemi autonomi dall'infrastruttura urbana. Mentre i data center AI raddoppiano il consumo elettrico e le tempeste solari minacciano le reti, emerge una domanda scomoda: stiamo progettando un futuro resiliente o costruendo castelli di carta tecnologica?
24 dicembre 2025
Dentro il report ESET che ridisegna la mappa del rischio cyber per il 2026
Quando nel 1987 due programmatori slovacchi, Rudolf Hrubý e Peter Paško, crearono il primo antivirus capace di neutralizzare il Vienna virus, non immaginavano che la loro creatura sarebbe diventata uno degli osservatori privilegiati delle guerre digitali del ventunesimo secolo. ESET, dalla piccola Bratislava, è cresciuta fino a disporre oggi di tredici centri di ricerca e sviluppo sparsi nel mondo e di una telemetria che monitora minacce su scala planetaria. È come avere un sistema di radar distribuito su ogni continente, sempre acceso, sempre in ascolto.