Notizie IA Logo

AITalk

Noticias y análisis sobre Inteligencia Artificial

Italia escribe el futuro de la IA: aprobada la primera ley nacional europea

Ethics & SocietySecurityBusiness

ai-act-italia.jpg

El 17 de septiembre de 2025 quedará como una fecha histórica para la innovación italiana. Para bien o para mal, dependerá de cómo la interpretemos. Con 77 votos a favor y 55 en contra, el Senado ha aprobado en vía definitiva lo que podríamos definir como el primer "código de circulación" para la inteligencia artificial en Europa. No es retórica: Italia es realmente el primer país de la Unión en dotarse de un marco normativo nacional plenamente alineado con la Ley de IA europea.

Como si de repente nos catapultaran al futuro y tuviéramos que escribir las reglas de un mundo nuevo, Italia se enfrenta a un desafío inédito: cómo gobernar una tecnología que promete revolucionarlo todo, desde la sanidad hasta la economía, sin ahogar la innovación ni comprometer los derechos fundamentales. La respuesta italiana, contenida en el Acta del Senado n.º 1146-B, es un documento de 47 artículos que representa un delicado equilibrio entre la ambición tecnológica y las protecciones constitucionales.

El momento histórico: 77 síes, 55 noes y una gobernanza revolucionaria

La génesis de esta ley dice mucho del enfoque italiano hacia la innovación. Presentado por el gobierno de Meloni el 26 de junio de 2025, el proyecto de ley ha pasado por un intenso pero rápido proceso parlamentario, pasando por las comisiones conjuntas de Medio Ambiente-Innovación y Asuntos Sociales-Sanidad. Esta elección no es casual: la IA afecta transversalmente a todos los aspectos de la sociedad contemporánea, desde la sostenibilidad medioambiental hasta la salud pública.

El texto se basa en principios que suenan casi como un manifiesto humanista de la era digital: uso antropocéntrico, transparente y seguro de la inteligencia artificial. Detrás de estos términos aparentemente abstractos se esconde una filosofía precisa: la IA debe seguir siendo una herramienta al servicio del hombre, y no al revés. Como reza el artículo 2 de la ley, todo sistema de inteligencia artificial debe garantizar "la supervisión humana significativa y la responsabilidad final de una persona física en las decisiones que afecten a los derechos y libertades fundamentales".

Pero es en el diseño de la gobernanza donde se manifiesta la verdadera originalidad del enfoque italiano. Como en una partida de Risk en la que se necesitan diferentes estrategas para controlar diferentes territorios, el legislador ha optado por un modelo de doble mando que implica a dos autoridades nacionales con competencias complementarias.

ACN y AgID: los nuevos sheriffs de la inteligencia artificial

La elección de confiar el control de la IA a un tándem no es en absoluto casual. La Agencia para la Ciberseguridad Nacional (ACN) asume el papel de "sheriff armado" del sistema, con poderes de inspección y supervisión sobre la idoneidad y seguridad de los sistemas de inteligencia artificial de alto riesgo. Por otro lado, la Agencia para la Italia Digital (AgID) se convierte en el "facilitador" del ecosistema, gestionando las notificaciones y promoviendo casos de uso seguros para ciudadanos y empresas.

Esta división de funciones no es académica. La ACN aporta al juego las competencias adquiridas en la ciberseguridad nacional, un sector en el que Italia ha construido una sólida reputación a nivel internacional. La AgID, por su parte, puede aprovechar la experiencia acumulada en la digitalización de la administración pública.

La coordinación entre ambas agencias se lleva a cabo bajo la égida del Departamento para la transformación digital de la Presidencia del Consejo de Ministros, que asume el papel de "director" de toda la estrategia nacional. Este organismo tendrá la tarea de preparar y actualizar, cada dos años, la Estrategia nacional de inteligencia artificial, implicando a las principales autoridades sectoriales en un proceso de consulta permanente.

Mil millones para las startups: cuando la innovación se encuentra con la inversión

Si la gobernanza representa el "sistema operativo" de la ley, las inversiones son su "combustible". La medida activa un programa de inversiones de mil millones de euros destinado a startups y pymes que operan en los campos de la IA, la ciberseguridad y las tecnologías emergentes. Se trata de una estrategia industrial precisa que pretende crear un ecosistema competitivo en el panorama mundial de la innovación.

El mecanismo de financiación prevé el apoyo a la transferencia de tecnología y a las cadenas de suministro estratégicas, con especial atención a los aspectos de la soberanía digital. En una época en la que la dependencia tecnológica puede convertirse rápidamente en una vulnerabilidad geopolítica, el objetivo es crear capacidades autónomas en sectores críticos. Como ha declarado el Ministro de Innovación Tecnológica, Alessio Butti, Italia quiere decir claramente a las empresas: "inviertan en Italia, encontrarán una gobernanza fiable, normas transparentes y un ecosistema dispuesto a apoyar proyectos concretos".

Pero cuidado: los fondos no son indiscriminados. El texto prevé criterios de selección rigurosos que priman los proyectos con impacto social, sostenibilidad medioambiental y capacidad para generar empleo cualificado. Es un intento de evitar lo que podríamos llamar el "efecto burbuja de las puntocom", en el que ingentes recursos públicos acaban alimentando la especulación financiera en lugar de la verdadera innovación.

Sectores bajo la lupa: de la sanidad al trabajo, normas para todos

El enfoque sectorial de la ley italiana es quizás el aspecto más pragmático de toda la normativa. En lugar de limitarse a principios generales, el legislador ha optado por entrar en el detalle de las aplicaciones específicas, definiendo normas ad hoc para los contextos en los que la IA puede tener un mayor impacto social.

En el sector sanitario, el artículo 15 establece el principio de la "centralidad del médico" en todo proceso de toma de decisiones apoyado por la IA. Esto significa que los algoritmos de diagnóstico o los sistemas de apoyo terapéutico solo podrán utilizarse como herramientas de ayuda, nunca como sustitutos del juicio clínico. Es una postura que refleja no solo preocupaciones éticas, sino también la conciencia de que en medicina el error algorítmico puede tener consecuencias dramáticas. Paralelamente, la ley promueve el uso de los datos sanitarios para la investigación, pero establece protocolos rigurosos para la protección de la privacidad.

El mundo del trabajo recibe una atención especial a través de la creación de un observatorio permanente en el Ministerio de Trabajo, con la tarea de supervisar el impacto de la IA en el empleo y en la "dignidad del trabajador". Esta última expresión, que podría parecer vaga, adquiere un significado concreto en la era de los sistemas de seguimiento algorítmico del rendimiento laboral. La ley establece que todo trabajador debe ser informado cuando su actividad está sujeta a una evaluación automatizada y tiene derecho a solicitar una revisión humana de las decisiones.

En la administración pública y en el sistema judicial, el principio rector es el de la "trazabilidad de las decisiones". Cada vez que un algoritmo contribuya a una decisión administrativa o judicial, debe ser posible reconstruir el proceso lógico seguido e identificar las responsabilidades humanas implicadas. No es ciencia ficción: en algunos tribunales italianos ya se están experimentando sistemas de IA para la asignación de expedientes o la redacción automática de actos judiciales.

Deepfake: el nuevo delito que protege la identidad y la dignidad digital

Quizás sea en la introducción de nuevas protecciones contra los deepfakes donde la ley italiana muestra su naturaleza más innovadora y, al mismo tiempo, más controvertida. La medida prevé sanciones específicas para quien realice o difunda contenidos audiovisuales o sonoros falsos, creados con tecnologías de inteligencia artificial, con el fin de dañar la reputación, el honor o la credibilidad de una persona.

La norma nace de la conciencia de que los deepfakes representan hoy en día una de las amenazas más insidiosas del ecosistema digital. Como en un episodio de Black Mirror en el que la realidad y la ficción se confunden peligrosamente, estos contenidos sintéticos pueden destruir reputaciones, manipular la opinión pública o ser utilizados para chantajes y venganzas.

La ley italiana es una de las primeras del mundo en tipificar específicamente este delito, anticipando probablemente una tendencia que se extenderá a otros ordenamientos jurídicos. Pero el legislador ha previsto otras medidas. La ley introduce la obligación de etiquetar todos los contenidos generados con IA, distinguiendo entre contenidos informativos y contenidos de entretenimiento.

Para los primeros, el etiquetado debe ser claro e inmediatamente visible; para los segundos, puede ser más discreto pero debe estar presente.

Es el intento de crear lo que podríamos llamar un "sistema inmunitario social" contra la desinformación. Las sanciones previstas por la normativa son graduales: van desde multas administrativas por la falta de etiquetado hasta sanciones más severas para los casos de uso malicioso de contenidos sintéticos.

El texto también prevé circunstancias agravantes cuando estos contenidos se utilizan en contextos electorales o para atacar a personas vulnerables como menores o personas con discapacidad.

Privacidad y RGPD: el equilibrio entre innovación y protección de datos

Uno de los aspectos más delicados de la regulación de la IA se refiere a la relación con la normativa europea de protección de datos personales. La ley italiana aborda estas cuestiones en varios artículos dedicados al tratamiento de datos personales, estableciendo principios que deberán guiar el desarrollo y la implementación de sistemas de IA respetando el RGPD.

El principio fundamental es el de la "minimización inteligente": los sistemas de IA pueden procesar datos personales solo en la medida estrictamente necesaria para alcanzar el fin específico para el que fueron diseñados. Pero la novedad reside en la introducción del concepto de "consentimiento dinámico", que permite a los usuarios modular el nivel de consentimiento en función de la evolución de las funcionalidades del sistema. Es como tener un termostato de la privacidad que se puede regular en tiempo real.

La ley también prevé la creación de "cajas de arena normativas" para la IA, espacios controlados en los que empresas e investigadores pueden experimentar soluciones innovadoras bajo la supervisión de la Autoridad de Protección de Datos. Es el intento de crear un entorno en el que la innovación pueda avanzar sin comprometer la protección de los derechos fundamentales.

Se presta especial atención a los sistemas de IA que procesan datos biométricos o realizan perfiles automatizados. Para estos casos, la ley introduce la obligación de una evaluación de impacto sobre los derechos y libertades fundamentales, un proceso que debe implicar a expertos independientes y a representantes de las categorías potencialmente afectadas.

El Garante de la Privacidad asume un papel central en el nuevo ecosistema, no solo como autoridad de control, sino también como promotor de buenas prácticas y normas técnicas. Se prevé la publicación anual de directrices sectoriales que tengan en cuenta la evolución tecnológica y la jurisprudencia europea.

Pero no faltan las críticas

Pero detrás de la unanimidad gubernamental se esconde un frente crítico nada marginal. Como en toda gran revolución normativa, la ley italiana sobre la IA también tiene sus detractores, y sus objeciones tocan puntos sensibles de la medida que merecen atención.

El diputado del Partido Democrático Andrea Casu, ponente de la minoría en la Cámara, no se anda con rodeos al definir la medida como un tren perdido: "El gobierno pierde el último tren para introducir correctivos fundamentales para garantizar en nuestro país una gobernanza y unos recursos a la altura del desafío. Ciertamente no podrá ser una gestión fragmentada entre agencias gubernamentales en un proyecto de ley que ni siquiera asigna un euro". La crítica de Casu toca un punto delicado: la presunta desconexión entre las ambiciones declaradas y los recursos asignados.

El senador Lorenzo Basso añade leña al fuego con un paralelismo implacable: "Esta es una ley que ya nace vieja y que no asigna recursos: solo se introducen nuevos delitos en lugar de adoptar incentivos para los particulares y la administración pública. Mientras el gobierno perdía el tiempo, otros actuaban, solo por poner un ejemplo, en Gran Bretaña se invierten 22.000 millones de euros y en Francia 10.000 millones".

Pero es la Red por los Derechos Humanos Digitales, una coalición que incluye a Amnistía Internacional Italia y The Good Lobby, la que lanza el ataque más sistemático. Su crítica se articula en tres frentes precisos: la gobernanza confiada a autoridades gubernamentales en lugar de independientes, la ausencia del "derecho a la explicación" para las decisiones algorítmicas y, sobre todo, el vacío normativo sobre el reconocimiento biométrico. "La ley italiana sobre inteligencia artificial recién aprobada entrega el control de la IA directamente al gobierno", denuncia Laura Ferrari de la Red. "Las autoridades encargadas de regular la inteligencia artificial están afiliadas al gobierno. No se han previsto mecanismos de defensa contra los errores de los sistemas de IA".

El punto más controvertido se refiere a la vigilancia biométrica. La Red había propuesto la prohibición del reconocimiento biométrico en los espacios abiertos al público, pero la ley ha optado por no regular en absoluto el tema. Una elección que, según los críticos, deja "vía libre al ejecutivo para proseguir con su ambicioso proyecto de vigilancia biométrica en los estadios italianos, que podría extenderse también a otros lugares de la vida pública, como plazas, estaciones, supermercados, cines y hospitales".

Es el fantasma del Gran Hermano que se cierne sobre el debate, alimentado por la ausencia de lo que debía ser una autoridad independiente para la IA, sustituida por el tándem ACN-AgID considerado demasiado cercano al ejecutivo.

La comparación europea: los primeros de la clase en la Ley de IA

La aprobación de la ley italiana llega, sin embargo, en un momento crucial para el panorama normativo europeo. La Ley de IA de la Unión Europea, que entró en vigor en agosto de 2024, establece un marco general pero deja a los Estados miembros un amplio margen de maniobra para su aplicación a nivel nacional. Italia ha optado por colmar rápidamente este espacio normativo, posicionándose como un punto de referencia para otros países europeos.

La estrategia italiana se distingue por su enfoque holístico que integra aspectos de seguridad nacional, desarrollo económico y protección de los derechos en un único corpus normativo. Mientras que otros países europeos todavía están definiendo sus estrategias nacionales, Italia puede presumir de una ventaja competitiva no despreciable a la hora de atraer inversiones internacionales en el sector de la IA.

El modelo de gobernanza de doble vía ACN-AgID también está suscitando interés en otros contextos nacionales. Francia, por ejemplo, está evaluando una arquitectura institucional similar, mientras que Alemania ha expresado su aprecio por el enfoque sectorial adoptado por Italia.

Pero la verdadera prueba de fuego será la aplicación. La ley prevé un seguimiento anual al Parlamento sobre la eficacia de las medidas adoptadas y sobre la evolución del sector. Es una cláusula de revisión que permitirá ajustar el rumbo sobre la marcha, un aspecto fundamental en un campo en el que la innovación avanza a una velocidad exponencial.

Como en las mejores tradiciones italianas, hemos escrito una buena ley, mejorable pero buena. Ahora queda por ver si sabremos aplicarla con la misma clarividencia con la que la concebimos. El futuro de la inteligencia artificial en Europa también podría depender de ello.