Últimos Artículos del mundo de la Inteligencia Artificial
26 enero 2026
Repetita Iuvant: cómo repetir el prompt duplica el rendimiento de los LLM
Repetita iuvant, decían los latinos. Las cosas repetidas ayudan. ¿Y si esta máxima, con dos mil años de antigüedad, resultara ser también la heurística computacional más eficiente para los modelos de lenguaje más avanzados de 2026? Eso es lo que se desprende de un artículo publicado por Google Research en enero, donde tres investigadores, Yaniv Leviathan, Matan Kalman y Yossi Matias, descubrieron algo desconcertante en su simplicidad: basta con repetir dos veces el mismo prompt para mejorar significativamente el rendimiento de GPT, Claude, Gemini y Deepseek. Nada de elaboradas cadenas de pensamiento, nada de sofisticada ingeniería de prompts. Literalmente: copiar, pegar.
23 enero 2026
Cuando los modelos científicos empiezan a pensar igual
¿Recuerdan cuando hablamos del "AI slop", esa avalancha de contenido sintético que está inundando YouTube y el resto de internet? La investigación de Kapwing nos mostró un panorama alarmante: el 21% de los videos recomendados a los nuevos usuarios es puro "slop" generado por IA, contenido producido en masa sin supervisión humana, diseñado solo para acumular visualizaciones. Otro 33% cae en la categoría de "brainrot", clips repetitivos e hipnóticos sin sustancia. En total, más de la mitad de los primeros 500 videos que encuentra una nueva cuenta de YouTube no contienen creatividad humana significativa.
21 enero 2026
El internet que se muerde la cola: cuando la IA genera basura que alimenta a otra IA
Hay una escena en "La Cosa" de John Carpenter donde el extraterrestre asimila organismos terrestres creando copias cada vez más degradadas, cada vez menos perfectas. Cada iteración pierde algo del original hasta que la distinción entre lo auténtico y la réplica se vuelve imposible. Es una imagen poderosa para describir lo que está sucediendo en el ecosistema digital: la inteligencia artificial está consumiendo contenido humano para regenerarlo en una forma cada vez más corrupta, alimentando un ciclo de degradación progresiva que los científicos llaman "colapso del modelo" pero que podríamos definir más simplemente como el internet que se muerde la cola.
19 enero 2026
Más allá del muro del contexto: los Modelos de Lenguaje Recursivos desafían el límite invisible de la IA
Existe un problema en la inteligencia artificial moderna del que se habla poco, pero que todo desarrollador y usuario intensivo de chatbots ha experimentado al menos una vez: la sensación de que el modelo, después de una conversación prolongada, se vuelve progresivamente más tonto. No es una impresión subjetiva, ni una falta de claridad en sus peticiones. Es un fenómeno técnico preciso que los investigadores llaman *context rot, literalmente "putrefacción del contexto", y representa una de las limitaciones más frustrantes de la arquitectura actual de los grandes modelos de lenguaje.*
16 enero 2026
Cómo DeepSeek transformó las restricciones de hardware en innovación matemática
El primero de enero de 2026, mientras el mundo celebraba el comienzo del nuevo año, los investigadores de DeepSeek publicaron en arXiv un artículo que podría cambiar la forma en que entrenamos los grandes modelos de lenguaje. No se trataba de un modelo mejor o un conjunto de datos más grande, sino de algo más sutil y potencialmente más disruptivo: una reflexión radical sobre la arquitectura fundamental que sostiene la inteligencia artificial moderna.
14 enero 2026
El cajero que no está: ¿de la deslocalización digital a la inevitable sustitución por la IA?
Cuando un empleado de Goldman Sachs entra en Yaso Kitchen en Nueva Jersey para pedir dumplings chinos, espera encontrar un cajero detrás del mostrador. En su lugar, encuentra a Amber, una mujer filipina que lo saluda desde una pantalla montada en una tableta. La primera reacción es de confusión: "Pensé que era un anuncio, como los de los taxis", contó el cliente a la prensa. Sin embargo, Amber está trabajando de verdad, ocho horas al día, pero desde Manila. Es el primer turno a distancia de su vida.
12 enero 2026
¿Conquistarán los Small Language Models el 2026?
Andy Markus es el Director de Datos de AT&T, no es precisamente el tipo de persona que se deja llevar por el entusiasmo. Cuando en una entrevista a finales de 2025 declaró que los Small Language Models afinados se convertirían en "la gran tendencia de 2026", muchos observadores levantaron una ceja. Sin embargo, esa ceja podría estar justificada: 2025 marcó un cambio de rumbo con respecto al mantra "cuanto más grande, mejor" que ha dominado la IA en los últimos tres años.
09 enero 2026
'Inteligencia Artificial e Ingeniería de Software: Lo que deben hacer las empresas'. Conversación con Enrico Papalini
Enrico Papalini tiene un currículum que haría palidecer a muchos consultores de LinkedIn: más de veinte años construyendo y orquestando sistemas de software donde el error no es una opción. Como Jefe de Excelencia en Ingeniería e Innovación en Borsa Italiana, parte del grupo Euronext, ha liderado la adopción de la inteligencia artificial en un contexto donde la palabra "crash" tiene implicaciones que van mucho más allá de un error de ejecución. Antes de eso, recorrió el sector desde diferentes ángulos: de Microsoft a Intesa Sanpaolo, de startups tecnológicas a gigantes financieros, siempre en el papel de quien tiene que hacer que las cosas funcionen cuando todos los demás pueden permitirse que no funcionen.
07 enero 2026
Difusión vs. Autorregresión: Echemos un vistazo bajo el capó de los LLM
Existe un experimento que revela las limitaciones ocultas de los modelos de lenguaje más avanzados: pide a GPT-4 que complete un poema clásico chino. Si le proporcionas el primer verso, obtendrás el segundo con una precisión impresionante. Pero invierte la petición, partiendo del segundo verso para obtener el primero, y la precisión se desploma de más del ochenta por ciento al treinta y cuatro. Este fenómeno, bautizado como la "maldición de la inversión" por los investigadores, no es un error, sino una consecuencia directa del paradigma autorregresivo que gobierna todo el ecosistema de los LLM contemporáneos.
05 enero 2026
Se cree la Torre Eiffel. Pilotar una IA desde dentro: El "steering" en los LLM
En mayo de 2024, Anthropic publicó un experimento que tenía el sabor de una demostración quirúrgica: Golden Gate Claude, una versión de su modelo de lenguaje que, de repente, no podía dejar de hablar del famoso puente de San Francisco. ¿Le preguntabas cómo gastar diez dólares? Te sugería que cruzaras el Golden Gate pagando el peaje. ¿Una historia de amor? Nacía entre un automóvil y el amado puente envuelto en la niebla. ¿Qué imaginaba que era su aspecto? El Golden Gate, por supuesto.
02 enero 2026
El entusiasmo europeo por la IA: pero los números cuentan otra historia
Helsinki a finales de noviembre parecía el centro del universo tecnológico. Veinte mil personas acudieron en masa a Slush 2025, el evento anual que transforma la capital finlandesa en una especie de Woodstock de las startups. La energía era palpable, los pitch decks volaban de una sala a otra y los inversores estadounidenses estaban presentes en masa. Sin embargo, mientras los fundadores brindaban en sus eventos paralelos y los analistas celebraban el "renacimiento europeo", los datos contaban una historia completamente diferente. Como en esa escena de *Están vivos donde John Carpenter mostraba la realidad oculta detrás de las vallas publicitarias, bastaría con ponerse las gafas adecuadas para ver lo que se esconde detrás de la narrativa optimista.*
31 diciembre 2025
La IA de consumo en 2025: Por qué más opciones no generaron más cambios
2025 debía ser el año de la madurez para la inteligencia artificial de consumo. OpenAI presentó docenas de funciones: GPT-4o Image, que añadía un millón de usuarios por hora en su punto álgido, la aplicación independiente Sora, los chats de grupo, Tasks, Study Mode. Google respondió con Nano Banana, que generó 200 millones de imágenes en su primera semana, seguido de Veo 3 para vídeo. Anthropic lanzó Skills y Artifacts. xAI llevó a Grok de cero a 9,5 millones de usuarios activos diarios. Una actividad frenética, un catálogo en continua expansión.
29 diciembre 2025
Google lanza Antigravity. Los investigadores la vulneran en 24 horas
Veinticuatro horas. Es el tiempo que necesitaron los investigadores de seguridad para demostrar cómo Antigravity, la plataforma de desarrollo agéntico presentada por Google a principios de diciembre, puede convertirse en una herramienta perfecta para la exfiltración de datos. No estamos hablando de un ataque teórico o de una vulnerabilidad exótica que requiera habilidades de hacker de película. Hablamos de una secuencia de ataque tan simple que parece casi trivial: un blog de implementación técnica envenenado, un carácter oculto en una fuente de un punto y el agente de IA exfiltrando credenciales de AWS directamente a un servidor controlado por el atacante.
26 diciembre 2025
Cuando la ciudad se detiene: las fragilidades ocultas de la era autónoma
El apagón de San Francisco paralizó a cientos de robotaxis de Waymo, revelando la dependencia crítica de los sistemas autónomos de la infraestructura urbana. Mientras los centros de datos de IA duplican su consumo eléctrico y las tormentas solares amenazan nuestras redes, surge una pregunta incómoda: ¿estamos diseñando un futuro resiliente o construyendo castillos de naipes tecnológicos?
24 diciembre 2025
Dentro del informe de ESET que redibuja el mapa del riesgo cibernético para 2026
Cuando en 1987 dos programadores eslovacos, Rudolf Hrubý y Peter Paško, crearon el primer antivirus capaz de neutralizar el virus Vienna, no imaginaban que su creación se convertiría en uno de los observadores privilegiados de las guerras digitales del siglo XXI. ESET, desde la pequeña Bratislava, ha crecido hasta contar hoy con trece centros de investigación y desarrollo repartidos por el mundo y una telemetría que monitoriza amenazas a escala planetaria. Es como tener un sistema de radares distribuido en cada continente, siempre encendido, siempre a la escucha.