Notizie IA Logo

AITalk

Actualités et analyses sur l'intelligence artificielle

L'Italie écrit l'avenir de l'IA : la première loi nationale européenne est approuvée

Ethics & SocietySecurityBusiness

ai-act-italia.jpg

Le 17 septembre 2025 restera une date historique pour l'innovation italienne. Pour le meilleur et pour le pire, cela dépendra de la manière dont nous l'interpréterons. Avec 77 votes pour et 55 contre, le Sénat a approuvé définitivement ce que nous pourrions appeler le premier "code de la route" pour l'intelligence artificielle en Europe. Ce n'est pas de la rhétorique : l'Italie est vraiment le premier pays de l'Union à se doter d'un cadre réglementaire national pleinement aligné sur la loi européenne sur l'IA.

Comme si nous étions soudainement catapultés dans le futur et que nous devions écrire les règles d'un monde nouveau, l'Italie se trouve face à un défi sans précédent : comment gouverner une technologie qui promet de tout révolutionner, de la santé à l'économie, sans étouffer l'innovation ni compromettre les droits fondamentaux. La réponse italienne, contenue dans l'acte du Sénat n° 1146-B, est un document de 47 articles qui représente un équilibre délicat entre l'ambition technologique et les protections constitutionnelles.

Le moment historique : 77 oui, 55 non et une gouvernance révolutionnaire

La genèse de cette loi en dit long sur l'approche italienne de l'innovation. Présenté par le gouvernement Meloni le 26 juin 2025, le projet de loi a connu un processus parlementaire intense mais rapide, passant par les commissions mixtes Environnement-Innovation et Affaires sociales-Santé. Ce choix n'est pas un hasard : l'IA touche de manière transversale tous les aspects de la société contemporaine, de la durabilité environnementale à la santé publique.

Le texte repose sur des principes qui sonnent presque comme un manifeste humaniste de l'ère numérique : une utilisation anthropocentrique, transparente et sûre de l'intelligence artificielle. Derrière ces termes apparemment abstraits se cache une philosophie précise : l'IA doit rester un outil au service de l'homme, et non l'inverse. Comme le stipule l'article 2 de la loi, tout système d'intelligence artificielle doit garantir "une supervision humaine significative et la responsabilité finale d'une personne physique dans les décisions qui ont un impact sur les droits et libertés fondamentaux".

Mais c'est dans la conception de la gouvernance que se manifeste la véritable originalité de l'approche italienne. Comme dans une partie de Risk où il faut des stratèges différents pour contrôler des territoires différents, le législateur a choisi un modèle à double commande impliquant deux autorités nationales aux compétences complémentaires.

ACN et AgID : les nouveaux shérifs de l'intelligence artificielle

Le choix de confier le contrôle de l'IA à un tandem est tout sauf un hasard. L'Agence pour la cybersécurité nationale (ACN) assume le rôle de "shérif armé" du système, avec des pouvoirs d'inspection et de surveillance sur l'adéquation et la sécurité des systèmes d'intelligence artificielle à haut risque. D'autre part, l'Agence pour l'Italie numérique (AgID) devient le "facilitateur" de l'écosystème, en gérant les notifications et en promouvant des cas d'utilisation sûrs pour les citoyens et les entreprises.

Cette division des rôles n'est pas académique. L'ACN apporte au jeu les compétences acquises en matière de cybersécurité nationale, un secteur où l'Italie s'est forgé une solide réputation au niveau international. L'AgID, quant à elle, peut mettre à profit l'expérience accumulée dans la numérisation de l'administration publique.

La coordination entre les deux agences se fait sous l'égide du Département pour la transformation numérique de la Présidence du Conseil des ministres, qui assume le rôle de "metteur en scène" de l'ensemble de la stratégie nationale. Cet organisme aura pour tâche d'élaborer et de mettre à jour, tous les deux ans, la stratégie nationale pour l'intelligence artificielle, en associant les principales autorités sectorielles à un processus de consultation permanente.

Un milliard pour les startups : quand l'innovation rencontre l'investissement

Si la gouvernance représente le "système d'exploitation" de la loi, les investissements en sont le "carburant". La mesure active un programme d'investissement d'un milliard d'euros destiné aux startups et aux PME opérant dans les domaines de l'IA, de la cybersécurité et des technologies émergentes. Il s'agit d'une stratégie industrielle précise qui vise à créer un écosystème compétitif dans le paysage mondial de l'innovation.

Le mécanisme de financement prévoit le soutien au transfert de technologie et aux filières stratégiques, avec une attention particulière aux aspects de la souveraineté numérique. À une époque où la dépendance technologique peut rapidement se transformer en vulnérabilité géopolitique, l'objectif est de renforcer les capacités autonomes dans les secteurs critiques. Comme l'a déclaré le ministre de l'Innovation technologique, Alessio Butti, l'Italie veut dire clairement aux entreprises : "investissez en Italie, vous y trouverez une gouvernance fiable, des règles transparentes et un écosystème prêt à soutenir des projets concrets".

Mais attention : les fonds ne sont pas distribués à l'aveuglette. Le texte prévoit des critères de sélection rigoureux qui privilégient les projets à impact social, à durabilité environnementale et capables de générer des emplois qualifiés. C'est une tentative d'éviter ce que l'on pourrait appeler "l'effet bulle Internet", où d'énormes ressources publiques finissent par alimenter la spéculation financière plutôt que la véritable innovation.

Secteurs sous la loupe : de la santé au travail, des règles pour tous

L'approche sectorielle de la loi italienne est peut-être l'aspect le plus pragmatique de l'ensemble de la réglementation. Au lieu de se limiter à des principes généraux, le législateur a choisi d'entrer dans le détail des applications spécifiques, en définissant des règles ad hoc pour les contextes où l'IA peut avoir le plus grand impact social.

Dans le secteur de la santé, l'article 15 établit le principe de la "centralité du médecin" dans tout processus de prise de décision assisté par l'IA. Cela signifie que les algorithmes de diagnostic ou les systèmes d'aide thérapeutique ne pourront être utilisés que comme des outils d'aide, jamais en remplacement du jugement clinique. C'est une position qui reflète non seulement des préoccupations éthiques, mais aussi la conscience qu'en médecine, une erreur algorithmique peut avoir des conséquences dramatiques. Parallèlement, la loi promeut l'utilisation des données de santé pour la recherche, mais établit des protocoles rigoureux pour la protection de la vie privée.

Le monde du travail fait l'objet d'une attention particulière à travers la création d'un observatoire permanent auprès du ministère du Travail, chargé de surveiller l'impact de l'IA sur l'emploi et sur la "dignité du travailleur". Cette dernière expression, qui pourrait paraître vague, prend un sens concret à l'ère des systèmes de surveillance algorithmique des performances professionnelles. La loi établit que tout travailleur doit être informé lorsque son activité fait l'objet d'une évaluation automatisée et a le droit de demander une révision humaine des décisions.

Dans l'administration publique et le système judiciaire, le principe directeur est celui de la "traçabilité décisionnelle". Chaque fois qu'un algorithme contribue à une décision administrative ou judiciaire, il doit être possible de reconstituer le processus logique suivi et d'identifier les responsabilités humaines impliquées. Ce n'est pas de la science-fiction : dans certains tribunaux italiens, des systèmes d'IA sont déjà expérimentés pour l'attribution des dossiers ou la rédaction automatique d'actes judiciaires.

Deepfake : le nouveau délit qui protège l'identité et la dignité numérique

C'est peut-être dans l'introduction de nouvelles protections contre les deepfakes que la loi italienne montre sa nature la plus innovante et, en même temps, la plus controversée. La mesure prévoit des sanctions spécifiques pour quiconque crée ou diffuse des contenus audiovisuels ou sonores faux, créés avec des technologies d'intelligence artificielle, dans le but de nuire à la réputation, à l'honneur ou à la crédibilité d'une personne.

La règle découle de la prise de conscience que les deepfakes représentent aujourd'hui l'une des menaces les plus insidieuses de l'écosystème numérique. Comme dans un épisode de Black Mirror où la réalité et la fiction se confondent dangereusement, ces contenus synthétiques peuvent détruire des réputations, manipuler l'opinion publique ou être utilisés à des fins de chantage et de vengeance.

La loi italienne est l'une des premières au monde à qualifier spécifiquement ce délit, anticipant probablement une tendance qui se répandra dans d'autres systèmes juridiques. Mais le législateur a prévu d'autres mesures. La loi introduit l'obligation d'étiquetage pour tous les contenus générés par l'IA, en distinguant les contenus informatifs des contenus de divertissement.

Pour les premiers, l'étiquetage doit être clair et immédiatement visible ; pour les seconds, il peut être plus discret mais doit néanmoins être présent.

C'est une tentative de créer ce que l'on pourrait appeler un "système immunitaire social" contre la désinformation. Les sanctions prévues par la réglementation sont progressives : elles vont des amendes administratives pour défaut d'étiquetage à des sanctions plus sévères pour les cas d'utilisation malveillante de contenus synthétiques.

Le texte prévoit également des circonstances aggravantes lorsque ces contenus sont utilisés dans des contextes électoraux ou pour cibler des personnes vulnérables comme des mineurs ou des personnes handicapées.

Vie privée et RGPD : l'équilibre entre innovation et protection des données

L'un des aspects les plus délicats de la réglementation de l'IA concerne la relation avec la réglementation européenne sur la protection des données personnelles. La loi italienne aborde ces questions dans plusieurs articles consacrés au traitement des données personnelles, en établissant des principes qui devront guider le développement et la mise en œuvre des systèmes d'IA dans le respect du RGPD.

Le principe fondamental est celui de la "minimisation intelligente" : les systèmes d'IA ne peuvent traiter les données personnelles que dans la mesure strictement nécessaire à la réalisation de la finalité spécifique pour laquelle ils ont été conçus. Mais la nouveauté réside dans l'introduction du concept de "consentement dynamique", qui permet aux utilisateurs de moduler le niveau de consentement en fonction de l'évolution des fonctionnalités du système. C'est comme avoir un thermostat de la vie privée qui peut être réglé en temps réel.

La loi prévoit également la création de "bacs à sable réglementaires" pour l'IA, des espaces contrôlés où les entreprises et les chercheurs peuvent expérimenter des solutions innovantes sous la supervision de l'Autorité de protection des données. C'est une tentative de créer un environnement où l'innovation peut progresser sans compromettre la protection des droits fondamentaux.

Une attention particulière est accordée aux systèmes d'IA qui traitent des données biométriques ou effectuent un profilage automatisé. Pour ces cas, la loi introduit l'obligation d'une évaluation d'impact sur les droits et libertés fondamentaux, un processus qui doit faire intervenir des experts indépendants et des représentants des catégories potentiellement concernées.

Le Garant de la protection de la vie privée assume un rôle central dans le nouvel écosystème, non seulement en tant qu'autorité de contrôle mais aussi en tant que promoteur de bonnes pratiques et de normes techniques. La publication annuelle de lignes directrices sectorielles tenant compte de l'évolution technologique et de la jurisprudence européenne est prévue.

Mais les critiques ne manquent pas

Mais derrière l'unanimité gouvernementale se cache un front critique loin d'être marginal. Comme dans toute grande révolution réglementaire, la loi italienne sur l'IA a aussi ses détracteurs, et leurs objections touchent des points sensibles de la mesure qui méritent l'attention.

Le député du Parti démocrate Andrea Casu, rapporteur de l'opposition à la Chambre, ne mâche pas ses mots pour qualifier la mesure de train manqué : "Le gouvernement manque le dernier train pour introduire des correctifs fondamentaux afin de garantir dans notre pays une gouvernance et des ressources à la hauteur du défi. Il ne pourra certainement pas s'agir d'une gestion fragmentée entre des agences gouvernementales dans un projet de loi qui n'alloue même pas un euro." La critique de Casu touche un point sensible : le décalage présumé entre les ambitions déclarées et les ressources allouées.

Le sénateur Lorenzo Basso en rajoute une couche avec un parallèle impitoyable : "C'est une loi qui naît déjà vieille et qui n'alloue pas de ressources : on n'introduit que de nouveaux délits au lieu d'adopter des incitations pour les particuliers et l'administration publique. Pendant que le gouvernement perdait son temps, d'autres ont agi, pour ne citer qu'un exemple, en Grande-Bretagne, on investit 22 milliards d'euros et en France 10 milliards."

Mais c'est le Réseau pour les droits de l'homme numériques, une coalition qui comprend Amnesty International Italie et The Good Lobby, qui lance l'attaque la plus systématique. Leur critique s'articule sur trois fronts précis : la gouvernance confiée à des autorités gouvernementales plutôt qu'indépendantes, l'absence du "droit à l'explication" pour les décisions algorithmiques, et surtout le vide réglementaire sur la reconnaissance biométrique. "La loi italienne sur l'intelligence artificielle qui vient d'être approuvée confie le contrôle de l'IA directement au gouvernement", dénonce Laura Ferrari du Réseau. "Les autorités chargées de réglementer l'intelligence artificielle sont affiliées au gouvernement. Aucun mécanisme de défense contre les erreurs des systèmes d'IA n'a été prévu."

Le point le plus controversé concerne la surveillance biométrique. Le Réseau avait proposé l'interdiction de la reconnaissance biométrique dans les espaces ouverts au public, mais la loi a choisi de ne pas réglementer du tout le sujet. Un choix qui, selon les critiques, laisse "les mains libres à l'exécutif pour poursuivre son projet ambitieux de surveillance biométrique dans les stades italiens, qui pourrait également s'étendre à d'autres lieux de la vie publique, comme les places, les gares, les supermarchés, les cinémas et les hôpitaux".

C'est le fantôme de Big Brother qui plane sur la discussion, alimenté par l'absence de ce qui devait être une autorité indépendante pour l'IA, remplacée par le tandem ACN-AgID considéré comme trop proche de l'exécutif.

La comparaison européenne : premier de la classe dans la loi sur l'IA

L'approbation de la loi italienne intervient cependant à un moment crucial pour le paysage réglementaire européen. La loi sur l'IA de l'Union européenne, entrée en vigueur en août 2024, établit un cadre général mais laisse aux États membres une grande marge de manœuvre pour sa mise en œuvre au niveau national. L'Italie a choisi de combler rapidement cet espace réglementaire, se positionnant comme une référence pour les autres pays européens.

La stratégie italienne se distingue par son approche holistique qui intègre les aspects de la sécurité nationale, du développement économique et de la protection des droits dans un seul corpus réglementaire. Alors que d'autres pays européens sont encore en train de définir leurs stratégies nationales, l'Italie peut se targuer d'un avantage concurrentiel non négligeable pour attirer les investissements internationaux dans le secteur de l'IA.

Le modèle de gouvernance à deux voies ACN-AgID suscite également l'intérêt dans d'autres contextes nationaux. La France, par exemple, envisage une architecture institutionnelle similaire, tandis que l'Allemagne a exprimé son appréciation pour l'approche sectorielle adoptée par l'Italie.

Mais le véritable test sera la mise en œuvre. La loi prévoit un suivi annuel au Parlement sur l'efficacité des mesures adoptées et sur l'évolution du secteur. C'est une clause de révision qui permettra d'ajuster le tir en cours de route, un aspect fondamental dans un domaine où l'innovation progresse à une vitesse exponentielle.

Comme dans les meilleures traditions italiennes, nous avons écrit une bonne loi, perfectible mais bonne. Il reste maintenant à voir si nous saurons l'appliquer avec la même clairvoyance avec laquelle nous l'avons conçue. L'avenir de l'intelligence artificielle en Europe pourrait également en dépendre.