Notizie IA Logo

AITalk

Actualités et analyses sur l'intelligence artificielle

L'Europe joue sa partie IA (Apply AI Strategy)

Ethics & SocietySecurityBusiness

apply-ai-eu-strategy.jpg

Bruxelles annonce l'Apply AI Strategy pour réduire la dépendance technologique vis-à-vis des États-Unis et de la Chine. Mais entre ambitions milliardaires, contradictions réglementaires et lacunes infrastructurelles, l'Europe peut-elle vraiment devenir un acteur autonome dans le domaine de l'intelligence artificielle ?

Le jeu se corse

Il y a un moment où chaque protagoniste d'un jeu vidéo en monde ouvert se rend compte qu'il a passé trop de temps à accomplir des quêtes secondaires pendant que le boss final accumulait de l'expérience. L'Europe, après des années passées à rédiger des réglementations sur l'intelligence artificielle tandis que les États-Unis et la Chine investissaient des milliards dans les puces, les modèles de langage et les centres de données, semble avoir eu sa révélation. La réponse arrive sous un nom qui sonne comme une commande de terminal : Apply AI Strategy.

Il ne s'agit pas d'un énième document de bonnes intentions. La stratégie annoncée par la Commission européenne représente un changement de paradigme radical : de l'Europe législatrice à l'Europe innovatrice. Ou du moins, c'est ce que Bruxelles essaie de vendre au monde. Car la réalité, comme toujours lorsqu'il s'agit de technologie et de géopolitique, est diablement plus complexe qu'un slogan.

Le Financial Times a levé le voile sur cette stratégie qui devrait être lancée au troisième trimestre 2025, après une consultation publique encore en cours. L'objectif déclaré est de réduire la dépendance technologique de l'Europe vis-à-vis des États-Unis et de la Chine, en transformant le Vieux Continent en un acteur autonome dans le domaine de l'intelligence artificielle. Le plan s'articule autour de trois piliers : des initiatives phares sectorielles pour onze industries clés, des mesures pour renforcer la souveraineté technologique européenne, et un mécanisme de gouvernance unique qui impliquera les fournisseurs d'IA, l'industrie, le monde universitaire et le secteur public.

Mais il y a un problème de fond qu'aucun document stratégique ne peut cacher : l'Europe part avec un handicap énorme. Alors que les États-Unis ont attiré 68 milliards de dollars de capital-risque pour l'IA en 2023, l'Europe s'est arrêtée à 8 milliards. Alors que la Chine produit des modèles de langage comme DeepSeek qui remettent en question les hypothèses occidentales sur les coûts et la consommation d'énergie, l'Europe voit ses startups les plus prometteuses émigrer outre-mer en quête de financements. Et tandis que les deux géants construisent des infrastructures avec une approche quasi militaire, le continent européen doit encore décider s'il veut vraiment jouer ce jeu ou se contenter de jouer l'arbitre.

Trois piliers pour un gratte-ciel chancelant

La stratégie Apply AI promet de positionner l'Union européenne en tant que leader mondial dans l'adoption et l'innovation de l'intelligence artificielle. Une ambition qui, sur le papier, semble magnifique, mais qui, dans la pratique, se heurte à la fragmentation des marchés européens, à la rareté du capital-risque et, surtout, à une dépendance vis-à-vis des infrastructures américaines et chinoises qui fait ressembler l'objectif de souveraineté technologique plus à un vœu pieux qu'à une feuille de route concrète.

Le premier pilier concerne les initiatives phares sectorielles. Onze secteurs industriels clés deviendront les laboratoires privilégiés pour l'adoption de l'IA : de la fabrication à l'aérospatiale, de la sécurité à la santé, du secteur public à l'énergie. L'idée est de créer des pôles d'excellence où l'intelligence artificielle n'est pas une option mais le paradigme opérationnel standard. En particulier, la stratégie mise beaucoup sur les petites et moyennes entreprises, le tissu conjonctif de l'économie européenne. Car si en Amérique l'innovation passe par des startups qui brûlent des millions de dollars en quelques mois en espérant trouver la licorne, en Europe le chemin doit être différent : plus lent, plus distribué, plus durable. Du moins, c'est ce que dit la théorie.

Le deuxième pilier est celui de la souveraineté technologique, un concept qui sonne bien dans les communiqués de presse mais qui, dans la réalité technologique contemporaine, ressemble plus à une chimère qu'à un objectif réalisable. La Commission promet des mesures transversales pour relever les défis structurels du développement et de l'adoption de l'IA. Traduit du jargon bureaucratique : Bruxelles sait que l'Europe n'a ni les puces, ni les centres de données, ni les modèles de langage de pointe pour rivaliser à armes égales. Et donc, elle doit les construire. De zéro. Ou presque.

C'est là qu'intervient le troisième pilier : le mécanisme de gouvernance. Une structure qui devrait réunir les fournisseurs d'IA, les leaders industriels, le monde universitaire et le secteur public pour garantir que les actions politiques sont ancrées dans les besoins du monde réel. Un objectif louable, mais qui risque de se transformer en une énième table ronde où tout le monde parle et personne ne décide. Le véritable défi ne sera pas de mettre les parties prenantes d'accord, mais de le faire dans des délais compatibles avec l'évolution technologique. Car pendant que l'Europe discute en commission, OpenAI lance un nouveau modèle, Google annonce une percée dans les puces quantiques, et DeepSeek démontre que l'on peut faire de l'IA de qualité avec une fraction des ressources que tout le monde tenait pour acquises.

La stratégie Apply AI sera accompagnée d'un document parallèle sur l'IA dans la science, qui devrait favoriser l'adoption de l'intelligence artificielle dans les différentes disciplines scientifiques. Et elle sera complémentaire à la Data Union Strategy, prévue pour la fin octobre 2025, une initiative qui vise à garantir la disponibilité d'ensembles de données de haute qualité et à grande échelle, essentiels pour entraîner les modèles d'IA. Car sans données, même le supercalculateur le plus puissant est aussi inutile qu'un moteur V12 sans essence.

Le supercalculateur qui devait tous nous sauver

Si l'Apply AI Strategy est la vision stratégique, les AI Factories sont la tentative de lui donner des jambes. Ou plutôt, des processeurs. L'Europe a décidé que pour être compétitive dans le domaine de l'intelligence artificielle, il ne suffit pas d'écrire des règlements : il faut des machines. Des machines énormes, surpuissantes, gourmandes en énergie. Des supercalculateurs capables de rivaliser avec les infrastructures américaines et chinoises.

Et c'est ainsi que, dans un climat qui oscille entre l'enthousiasme technologique et le désespoir géopolitique, l'Europe a inauguré JUPITER, son premier supercalculateur exascale, capable d'exécuter un quintillion d'opérations par seconde. Ce n'est pas un chiffre que l'on peut visualiser facilement : nous parlons d'une puissance de calcul qui, il y a quelques années à peine, relevait de la pure science-fiction. Le système, basé au Forschungszentrum Jülich en Allemagne, a été inauguré par la commissaire Zaharieva et le chancelier allemand Friedrich Merz, et marque officiellement l'entrée de l'Europe dans la ligue exascale du calcul haute performance.

Mais JUPITER n'est pas seulement un monument au calcul scientifique. Il a été explicitement conçu pour soutenir le développement de solutions d'IA, et en particulier pour alimenter la JUPITER AI Factory, annoncée en mars 2025 dans le cadre de l'initiative EuroHPC visant à établir des AI Factories dans toute l'Europe. L'idée est de rendre cette puissance de calcul accessible aux startups et aux PME, et pas seulement aux centres de recherche. Démocratiser l'accès aux supercalculateurs pour entraîner des modèles de langage de pointe, développer des technologies d'IA générative et rivaliser avec les géants américains sans avoir à mendier des crédits sur AWS ou Google Cloud.

L'entreprise commune EuroHPC a sélectionné six nouveaux sites pour accueillir des AI Factories supplémentaires : Autriche, Bulgarie, France, Allemagne, Pologne et Slovénie. Un investissement total de 2,1 milliards d'euros, financé par l'UE et les États membres. Ces sites installeront de nouveaux supercalculateurs optimisés pour l'IA et rénoveront ceux qui existent déjà, tout en développant des microprocesseurs spécifiques pour l'intelligence artificielle et des programmes de formation.

Sur le papier, c'est un plan ambitieux. Dans la pratique, il soulève une série de questions délicates. Tout d'abord : d'où viennent les puces ? Car JUPITER, comme presque tous les supercalculateurs du monde, repose sur des processeurs et des GPU qui proviennent de fournisseurs américains ou taïwanais. La chaîne d'approvisionnement des semi-conducteurs est contrôlée par quelques acteurs mondiaux, et l'Europe n'en fait pas partie. Sans puces autonomes, parler de souveraineté technologique est un exercice de rhétorique. L'Europe peut construire les centres de données les plus efficaces du monde, mais si les composants clés viennent de l'étranger, la dépendance demeure.

Et puis il y a le problème de l'énergie. Les centres de données européens consomment déjà 2,7 % de l'électricité de l'UE, et une augmentation de 28 % est prévue d'ici 2030. JUPITER et les AI Factories ajouteront une charge importante. Comment concilier l'ambition technologique avec les objectifs climatiques ? L'Europe veut être un leader de l'IA durable, mais l'IA de pointe est intrinsèquement énergivore. DeepSeek a montré que l'on peut faire de l'IA efficace, mais il reste à voir si le modèle chinois est reproductible ou s'il s'agit simplement d'une exception chanceuse dans un paysage où la puissance brute reste le paramètre dominant. jupiter.jpg Photo tirée de digital-strategy.ec

Le dilemme du régulateur repenti

Il y a une ironie tragi-comique dans tout cela. L'Europe a passé des années à élaborer l'AI Act, le premier cadre législatif complet au monde pour réglementer l'intelligence artificielle. Un chef-d'œuvre d'ingénierie normative, célébré comme l'exemple de la manière dont la technologie devrait être gouvernée : basée sur les risques, centrée sur l'humain, respectueuse des droits fondamentaux. Et maintenant, au moment même où l'AI Act entre en vigueur, Bruxelles fait marche arrière.

Une analyse du Carnegie Endowment for International Peace a mis le doigt sur la plaie : l'Europe glisse vers un virage déréglementaire qui risque d'éroder les garanties démocratiques acquises au prix d'années de négociations. Le cas le plus flagrant est l'annulation de la directive sur la responsabilité en matière d'IA, une proposition qui aurait clairement établi qui est responsable lorsqu'un système d'IA cause un dommage. Elle semblait être le complément parfait de l'AI Act : ce dernier réglemente l'entrée sur le marché, la directive sur la responsabilité aurait réglementé les conséquences post-dommage. Au lieu de cela, elle a été torpillée dans le programme de travail 2025 de la Commission, sacrifiée sur l'autel de la compétitivité.

Le message est clair : l'Europe veut montrer aux géants de la technologie, aux investisseurs et aux innovateurs qu'elle peut être un endroit formidable pour faire des affaires. Moins de bureaucratie, plus de flexibilité, bienvenue dans le nouveau cap européen. Mais ce changement de cap engendre une contradiction dévastatrice : comment peut-on parler de souveraineté technologique si l'on renonce ensuite aux outils qui garantissent la responsabilité et la transparence ? Comment instaurer la confiance dans les systèmes d'IA si les victimes de dommages n'ont pas de voie de recours claire pour obtenir justice ?

Le rapport Carnegie est brutal dans son analyse : l'Europe risque de perdre à la fois son autonomie technologique et son influence réglementaire. Car si vous cédez sur les principes pour poursuivre l'innovation, vous ne construisez pas la souveraineté, vous importez simplement le modèle de la Silicon Valley avec vingt ans de retard. Et pendant ce temps, les vrais acteurs mondiaux continuent de faire ce qu'ils veulent, avec ou sans réglementation européenne.

La pression extérieure est palpable. Le vice-président américain JD Vance, s'exprimant lors du sommet AI Action à Paris en février 2025, a explicitement invité l'Europe à "assouplir" la réglementation sur l'IA. Il n'a pas été subtil : il a qualifié l'approche européenne d'excès de bureaucratie qui étouffe l'innovation. Et beaucoup en Europe, effrayés par l'écart croissant avec les États-Unis et la Chine, sont tentés de le croire. Le problème est que le discours "trop de réglementation = zéro innovation" est en grande partie un mythe cultivé précisément par ceux qui ont intérêt à opérer sans contraintes.

Prenons le RGPD, le règlement européen sur la protection des données. Selon de nombreux critiques américains, il aurait dû étrangler l'innovation européenne en matière d'IA, car il limite l'accès aux données à grande échelle nécessaires pour entraîner les modèles. En réalité, le RGPD a créé un écosystème où la confiance des utilisateurs est plus élevée, la qualité des données est meilleure et l'innovation se concentre sur des techniques respectueuses de la vie privée comme l'apprentissage fédéré et les données synthétiques. Ce n'est pas l'approche "move fast and break things" de Zuckerberg, mais c'est une innovation qui vise la durabilité à long terme.

Et pourtant, la tentation de la déréglementation est forte. Le rapport Draghi sur la compétitivité européenne, publié en 2024, a souligné l'urgence de simplifier le paysage réglementaire pour ne pas rester à la traîne. Et il a raison sur un point : la fragmentation réglementaire entre les vingt-sept États membres est un problème réel. Mais confondre la nécessité d'harmonisation avec la déréglementation pure et simple est une erreur dangereuse. Ce n'est pas en supprimant des règles que l'on innove mieux, c'est en supprimant des règles stupides, contradictoires, redondantes. Et en les remplaçant par des cadres clairs, prévisibles, applicables.

Les chiffres qui ne collent pas

Lorsqu'on parle d'innovation technologique, en fin de compte, c'est l'argent qui compte. Et là, les chiffres européens font peur. Le rapport Draghi a été impitoyable en dressant le bilan : seulement 11 % des entreprises européennes utilisent l'IA, loin de l'objectif de 75 % d'ici 2030. Depuis 2017, 73 % des modèles d'IA fondamentaux proviennent des États-Unis et 15 % de la Chine. L'Europe est pratiquement absente de ce jeu. En 2023, l'UE n'a attiré que 8 milliards de dollars de capital-risque pour l'IA, contre 68 milliards pour les États-Unis et 15 milliards pour la Chine.

Les startups européennes les plus prometteuses dans le domaine de l'IA générative, comme Mistral et Aleph Alpha, peinent à rivaliser avec les géants américains par manque de capitaux. 61 % des financements mondiaux pour l'IA vont à des entreprises américaines, seulement 6 % à des entreprises européennes. Et ainsi, inévitablement, les meilleures entreprises européennes finissent par chercher des investisseurs étrangers, quand elles ne déménagent pas directement de l'autre côté de l'Atlantique ou du Pacifique.

Ursula von der Leyen, lors du sommet AI Action à Paris, a annoncé une mise à niveau de 8 milliards d'euros pour les AI Factories, accompagnée d'une initiative d'investissement de 50 milliards d'euros pour "surcharger" l'innovation dans l'intelligence artificielle. La France a surenchéri avec 109 milliards d'euros d'investissements privés. Des chiffres qui semblent énormes, mais qui pâlissent face aux 500 milliards de dollars du projet Stargate annoncé par l'administration Trump : un investissement privé mené par OpenAI, Oracle, Softbank et MGX qui vise à construire l'infrastructure d'IA dominante de la prochaine décennie.

Il y a une différence philosophique entre les deux approches. Le modèle américain est dirigé par le secteur privé, le gouvernement se contentant de faciliter : permis accélérés, accès garanti à l'énergie, réglementation minimale. Le modèle européen mise sur un mélange public-privé, avec un rôle de coordination fort de la part des institutions. Lequel fonctionnera le mieux ? Cela dépend de ce que l'on entend par "mieux". Si l'objectif est la vitesse pure et l'innovation de rupture, l'approche américaine l'emportera probablement. Si l'objectif est de créer un écosystème d'IA aligné sur les valeurs démocratiques, la protection des droits, la durabilité environnementale, alors le modèle européen a du sens. Mais seulement s'il parvient à se développer, et rapidement.

Un rapport de la Fondation Bertelsmann publié en février 2025 a quantifié ce que coûterait réellement la souveraineté numérique européenne : 300 milliards d'euros au cours de la prochaine décennie, partiellement financés par des investissements privés. Le rapport propose la création d'un Fonds technologique souverain européen avec un investissement initial de 10 milliards, mais souligne que pour parvenir à une véritable indépendance, il faudrait un engagement massif et coordonné qui touche à tout : des matières premières pour les batteries aux logiciels d'entreprise, des puces à la connectivité.

L'initiative EuroStack, citée dans le rapport, cherche à développer des capacités locales tout au long de la chaîne de valeur numérique. L'objectif est de réduire la dépendance vis-à-vis des fournisseurs étrangers en renforçant la sécurité, la résilience et la compétitivité. En mars 2025, près d'une centaine de dirigeants industriels, des PME numériques aux géants de la défense comme Airbus, Dassault Systèmes et OVHcloud, ont signé une lettre ouverte à la Commission demandant une stratégie industrielle forte pour réduire la dépendance de l'Europe vis-à-vis des infrastructures numériques étrangères. Mais les bonnes intentions ne suffisent pas. Il faut des investissements concrets, des accords d'échelle, des politiques industrielles coordonnées. Et surtout, il faut du temps. Un luxe que personne n'a dans le monde de l'IA. divide.jpg Image tirée de carnegieendowment.org

Le paradoxe chinois et le mythe de la Silicon Valley

En janvier 2025, DeepSeek a fait quelque chose d'apparemment impossible : il a lancé un modèle de langage avancé qui coûte une fraction de ChatGPT et consomme beaucoup moins d'énergie. La nouvelle a secoué l'industrie de l'IA. Car s'il est vrai que l'on peut faire de l'IA de qualité sans brûler des milliards et des gigawatts, alors toute la course effrénée à la construction de centres de données toujours plus grands pourrait être une impasse. Ou du moins, un chemin non inévitable.

DeepSeek démontre que l'innovation en IA ne passe pas seulement par la puissance brute. Elle passe aussi par l'efficacité algorithmique, par des approches open source, par une vision de l'intelligence artificielle comme un bien public numérique plutôt que comme une propriété intellectuelle à verrouiller. C'est une vision qui trouve un écho en Chine, en Inde et en Europe, mais qui va à contre-courant du discours dominant made in USA.

Car il faut le dire clairement : le mythe de la Silicon Valley est en grande partie une construction idéologique. L'idée que le libre marché, l'absence de réglementation et le génie visionnaire des entrepreneurs de la tech suffisent à l'innovation est tout simplement fausse. Internet, le GPS, le programme Apollo, les technologies fondamentales d'Apple sont tous nés d'investissements publics massifs. Le capital-risque est arrivé plus tard, lorsque les risques avaient déjà été absorbés par l'État. Et aujourd'hui, les géants de la tech continuent de privatiser les profits tout en externalisant les coûts : évasion fiscale, lobbying contre la réglementation, demandes de subventions publiques quand cela les arrange.

Meta, Google, OpenAI : tous se repositionnent pour s'aligner sur l'administration Trump. Meta a annulé son programme de vérification des faits et a financé l'investiture de Trump. Google a supprimé de sa politique l'engagement de ne pas utiliser l'IA pour les armes et la surveillance, ce qui a provoqué des démissions et des polémiques internes. OpenAI, née en tant qu'organisation à but non lucratif, tente de se restructurer en société à but lucratif, démontrant que même les meilleures intentions cèdent face aux logiques du capital-risque.

Et puis il y a la question des données. OpenAI et Google font pression sur l'administration Trump pour que l'entraînement de l'IA sur des données protégées par le droit d'auteur soit classé comme "fair use" (usage loyal), nécessaire à la sécurité nationale. Une démarche qui présente le vol massif de propriété intellectuelle comme du patriotisme. Des documents divulgués ont révélé que Meta a secrètement collecté des livres protégés par le droit d'auteur pour entraîner ses modèles, ce qui a déclenché des poursuites judiciaires de la part d'auteurs. La ligne de défense est toujours la même : les lois restrictives sur le droit d'auteur étouffent l'innovation.

L'Europe est confrontée à un dilemme : importer ce modèle, avec toutes ses contradictions éthiques, ou chercher une alternative ? La tentation de céder est forte, surtout quand les chiffres disent que vous êtes en train de perdre. Mais céder signifierait renoncer précisément à ce qui pourrait être l'avantage concurrentiel de l'Europe à long terme : un écosystème d'IA fondé sur la transparence, la responsabilité et le respect des droits. Ce n'est pas le chemin le plus rapide, mais ce pourrait être le plus durable.

L'IA militaire et les zones grises de la souveraineté

Il y a un éléphant dans la pièce que personne ne veut aborder directement : l'intelligence artificielle est par définition à double usage. Un algorithme qui optimise la logistique peut être utilisé pour coordonner des essaims de drones. Un modèle de langage qui améliore le service client peut être appliqué au renseignement militaire. La ligne de démarcation entre les applications civiles et militaires est floue, et elle s'amincit à mesure que l'IA devient omniprésente.

L'AI Act européen exclut explicitement les usages militaires de son champ d'application. C'était une concession nécessaire pour faire passer la législation, car les États membres ont exigé une liberté d'action en matière de sécurité et de défense. Mais cette exclusion crée un vide réglementaire énorme. Comment peut-on parler d'IA centrée sur l'humain si l'on autorise ensuite l'utilisation de systèmes autonomes létaux sans surveillance ? Comment garantir la transparence si les systèmes militaires opèrent dans le secret ?

La guerre en Ukraine est devenue un laboratoire d'IA en direct. Des entreprises privées comme Palantir fournissent des renseignements de surveillance et de ciblage basés sur l'IA. Des startups comme l'allemande Helsing développent des logiciels pour les systèmes de pointage des drones. La française Mistral AI collabore avec Helsing pour développer une IA de champ de bataille qui combine des modèles de langage avec des décisions en temps réel. L'Europe est en train de construire rapidement une industrie de l'IA militaire, mais sans cadre éthique clair.

Le livre blanc sur la préparation de la défense européenne, publié en mars 2025, souligne que l'avenir de la défense européenne dépend de la capacité à adopter des technologies de rupture : IA, calcul quantique, systèmes autonomes. Le document reconnaît que les drones, la robotique IA et les véhicules terrestres autonomes redéfinissent le champ de bataille. Et que l'Europe dispose d'une fenêtre limitée pour devenir un leader dans ce domaine.

Mais il y a une contradiction profonde. L'Europe veut être le champion de l'IA éthique, et en même temps, elle veut rivaliser dans la militarisation algorithmique avec les États-Unis, la Chine et la Russie. Peut-on faire les deux ? Ou faut-il choisir ? La réponse n'est pas simple. Il est possible d'imaginer une IA militaire européenne qui respecte les principes de proportionnalité, de supervision humaine, de transparence autant que possible. Mais cela nécessite un engagement institutionnel qui a fait défaut jusqu'à présent.

Le risque est que la course aux armements de l'IA se poursuive sans contrôles adéquats. Que l'on crée des systèmes autonomes létaux capables de prendre des décisions de tuer ou de ne pas tuer sans intervention humaine. Que la distinction entre combattants et civils, déjà difficile dans la guerre asymétrique, devienne impossible à gérer pour des algorithmes qui optimisent l'efficacité. Et que l'Europe, en poursuivant la compétitivité militaire, finisse par trahir les valeurs mêmes qui la distinguent.

Réalisme ou renonciation ?

Alors, en fin de compte, l'Apply AI Strategy est-elle un pari gagnant ou un bluff mal joué ? La réponse dépend du jeu que nous pensons que l'Europe est en train de jouer.

Si l'objectif est de devenir le nouveau maître de l'intelligence artificielle mondiale, en rivalisant au coude à coude avec les États-Unis et la Chine sur des critères de pure puissance de calcul et de capitalisation boursière, alors la réponse est simple : l'Europe a déjà perdu. L'écart est trop grand, les retards structurels trop profonds, les investissements nécessaires trop importants. Aucune Apply AI Strategy ne peut combler ce fossé à court terme.

Mais si l'objectif est de construire un écosystème d'IA alternatif, basé sur des principes différents, alors le jeu est encore ouvert. Un écosystème où l'IA n'est pas contrôlée par quelques méga-corporations mais distribuée entre les PME, les centres de recherche, les institutions publiques. Où la transparence et la responsabilité ne sont pas des options mais des exigences fondamentales. Où l'efficacité énergétique et la durabilité environnementale sont prioritaires. Où les ensembles de données ne sont pas extraits par des pratiques opaques mais construits avec le consentement éclairé des utilisateurs.

Est-ce une alternative crédible ? L'histoire de la technologie incite au scepticisme. Les effets de réseau favorisent les grands acteurs. Les modèles propriétaires attirent plus d'investissements que les modèles open source. La vitesse l'emporte sur la durabilité, du moins à court terme. Mais l'histoire de la technologie n'est pas déterministe. Il y a des moments de bifurcation où les choix politiques et les investissements stratégiques peuvent changer la trajectoire.

L'Europe a quelques cartes à jouer. Elle a JUPITER et les AI Factories qui, si elles sont bien gérées, peuvent fournir l'infrastructure de calcul aux startups et aux chercheurs. Elle a l'AI Act qui, malgré ses limites et les récentes déréglementations, reste le cadre le plus avancé au monde pour gouverner l'intelligence artificielle. Elle a un marché intérieur de 450 millions de personnes qui peut générer une demande de solutions d'IA fiables. Elle dispose de compétences scientifiques de très haut niveau en apprentissage automatique, en robotique, en vision par ordinateur.

Mais elle a aussi des faiblesses dévastatrices. La chaîne d'approvisionnement des puces est complètement hors de son contrôle. Le capital-risque européen est une fraction de celui des États-Unis. La fragmentation des marchés nationaux rend difficile la mise à l'échelle. Et surtout, il y a un manque de vision partagée : certains pays poussent à la déréglementation totale, d'autres veulent maintenir les contraintes éthiques ; certains misent sur des champions nationaux, d'autres préfèrent l'intégration européenne.

L'affaire Starlink en Ukraine a montré brutalement ce que signifie la dépendance technologique. Lorsque Elon Musk a menacé de désactiver le système de communication par satellite utilisé par les forces ukrainiennes, l'Europe a compris que se fier à des technologies contrôlées par des entreprises privées uniques, surtout si elles sont situées dans des juridictions hostiles ou instables, est un risque pour la sécurité nationale. L'UE essaie maintenant d'aider l'Ukraine à remplacer Starlink par des alternatives européennes, mais c'est un processus lent et coûteux.

C'est la réalité de la souveraineté technologique : ce n'est pas un concept abstrait de communiqué de presse, c'est la capacité concrète de contrôler les infrastructures critiques sur lesquelles reposent votre économie, votre défense, votre démocratie. Et l'Europe, en ce moment, n'a pas cette capacité dans le domaine de l'IA.

Le verdict (provisoire) d'un jeu encore ouvert

L'Apply AI Strategy sera lancée au troisième trimestre 2025. Les mois précédents verront des consultations, des négociations, des pressions de la part des lobbies industriels et des gouvernements nationaux. Le document final pourrait être très différent des ambitions initiales. Il pourrait être édulcoré au point de devenir un énième document stratégique sans mordant. Ou il pourrait devenir le tournant que l'Europe attend depuis des années.

La question cruciale n'est pas de savoir si l'Europe peut devenir la nouvelle Silicon Valley. Elle ne le peut pas, et ne devrait probablement même pas essayer. La question est de savoir si elle peut construire un modèle alternatif d'innovation en IA qui soit compétitif sans sacrifier les valeurs démocratiques. Un modèle où la transparence algorithmique n'est pas un obstacle mais un avantage concurrentiel. Où l'efficacité énergétique n'est pas une contrainte mais une opportunité de leadership. Où la responsabilité légale pour les dommages causés par l'IA n'est pas un coût mais une garantie de fiabilité.

Les 50 milliards d'euros promis par von der Leyen sont un début, mais seulement s'ils sont bien dépensés. Il ne faut pas plus de tables rondes, plus de documents stratégiques, plus de consultations publiques. Il faut des centres de données opérationnels, des startups financées, des chercheurs retenus en Europe avec des salaires compétitifs. Il faut une stratégie industrielle qui identifie clairement où l'Europe peut gagner (IA pour la fabrication de pointe, IA pour la transition énergétique, IA pour la santé publique) et où elle doit accepter la dépendance (puces de pointe, du moins à court terme).

Et il faut une dose de réalisme. La souveraineté technologique absolue est une illusion. Aucun pays, pas même les États-Unis ou la Chine, ne contrôle entièrement sa propre chaîne d'approvisionnement technologique. L'objectif n'est pas l'autarcie, c'est de réduire les dépendances critiques et d'accroître la résilience. C'est d'avoir des alternatives crédibles lorsqu'un fournisseur externe devient peu fiable ou hostile. C'est de maintenir des capacités internes suffisantes pour garantir que les décisions stratégiques restent entre les mains des Européens.

L'Apply AI Strategy, combinée aux AI Factories, à la Data Union Strategy et à un AI Act qui devrait être renforcé plutôt qu'affaibli, pourrait représenter les pièces d'un puzzle cohérent. Mais seulement si l'Europe surmonte sa tendance chronique à la fragmentation et à l'indécision. Seulement si les vingt-sept États membres acceptent de céder une partie de leur souveraineté nationale pour construire une véritable souveraineté technologique européenne. Seulement si les financements promis se traduisent par des projets concrets et mesurables.

Le précédent n'est pas encourageant. L'Europe a annoncé d'innombrables "stratégies numériques" au cours des vingt dernières années, qui ont presque toutes fini aux oubliettes ou ont été si mal mises en œuvre qu'elles sont devenues sans objet. Mais cette fois, peut-être, il y a une différence. Le contexte géopolitique a changé radicalement. La guerre en Ukraine, les tensions avec la Chine, l'imprévisibilité de l'administration Trump, la révélation de la profondeur des dépendances technologiques européennes : tout cela a créé un sentiment d'urgence qui manquait auparavant.

Comme à ce moment d'un combat de boss impossible où vous comprenez que vous devez changer de stratégie ou c'est Game Over, l'Europe a peut-être enfin compris que le statu quo n'est pas durable. Que vous ne pouvez pas être un acteur géopolitique pertinent si vous êtes technologiquement dépendant de vos rivaux. Que l'IA n'est pas seulement une autre technologie mais l'infrastructure critique du XXIe siècle, et que celui qui ne la contrôle pas sera contrôlé par celui qui la possède.

Le jeu est encore ouvert. Mais le temps presse, et l'Europe ne peut plus se permettre de rester sur la touche à écrire le règlement pendant que d'autres jouent la finale.


Sources

Documents officiels de l'Union européenne

Études et analyses

Médias