Derniers Articles du monde de l'Intelligence Artificielle
12 janvier 2026
Les Small Language Models vont-ils conquérir 2026 ?
Andy Markus est le Chief Data Officer d'AT&T, pas vraiment du genre à se laisser emporter par l'enthousiasme. Lorsqu'il a déclaré dans une interview fin 2025 que les Small Language Models affinés deviendraient "la grande tendance de 2026", de nombreux observateurs ont haussé un sourcil. Pourtant, ce sourcil pourrait être justifié : 2025 a marqué un revirement par rapport au mantra "plus c'est gros, mieux c'est" qui a dominé l'IA ces trois dernières années.
09 janvier 2026
'Intelligence Artificielle et Ingénierie Logicielle : Ce que les entreprises doivent faire'. Conversation avec Enrico Papalini
Enrico Papalini a un CV qui ferait pâlir de nombreux consultants sur LinkedIn : plus de vingt ans passés à construire et à orchestrer des systèmes logiciels où l'erreur n'est pas une option. En tant que responsable de l'excellence en ingénierie et de l'innovation à la Bourse italienne, qui fait partie du groupe Euronext, il a dirigé l'adoption de l'intelligence artificielle dans un contexte où le mot "crash" a des implications qui vont bien au-delà du simple bogue d'exécution. Auparavant, il a parcouru le secteur sous différents angles : de Microsoft à Intesa Sanpaolo, des startups technologiques aux géants financiers, toujours dans le rôle de celui qui doit faire fonctionner les choses quand tous les autres peuvent se permettre qu'elles ne fonctionnent pas.
07 janvier 2026
Diffusion contre autorégression : Jetons un œil sous le capot des LLM
Il existe une expérience qui révèle les limites cachées des modèles de langage les plus avancés : demandez à GPT-4 de compléter un poème chinois classique. Si vous fournissez le premier vers, vous obtiendrez le second avec une précision impressionnante. Mais inversez la demande, en partant du second vers pour obtenir le premier, et la précision chute de plus de quatre-vingts pour cent à trente-quatre. Ce phénomène, baptisé "malédiction de l'inversion" par les chercheurs, n'est pas un bogue mais une conséquence directe du paradigme autorégressif qui régit l'ensemble de l'écosystème des LLM contemporains.
05 janvier 2026
Elle se croit la Tour Eiffel. Piloter une IA de l'intérieur : Le "steering" dans les LLM
En mai 2024, Anthropic a publié une expérience qui avait l'allure d'une démonstration chirurgicale : Golden Gate Claude, une version de leur modèle de langage qui, soudainement, ne pouvait plus s'arrêter de parler du célèbre pont de San Francisco. Vous demandiez comment dépenser dix dollars ? Il vous suggérait de traverser le Golden Gate en payant le péage. Une histoire d'amour ? Elle naissait entre une automobile et le pont bien-aimé enveloppé de brouillard. Qu'imaginait-il être son apparence ? Le Golden Gate Bridge, bien sûr.
02 janvier 2026
L'enthousiasme européen pour l'IA : mais les chiffres racontent une autre histoire
Helsinki, fin novembre, semblait être le centre de l'univers technologique. Vingt mille personnes se sont pressées à Slush 2025, l'événement annuel qui transforme la capitale finlandaise en une sorte de Woodstock des startups. L'énergie était palpable, les pitch decks volaient d'une salle à l'autre, et les investisseurs américains étaient présents en masse. Pourtant, alors que les fondateurs trinquaient lors de leurs événements parallèles et que les analystes célébraient une "renaissance européenne", les données racontaient une histoire complètement différente. Comme dans cette scène de *They Live où John Carpenter révélait la réalité cachée derrière les panneaux publicitaires, il suffirait de chausser les bonnes lunettes pour voir ce qui se cache derrière le récit optimiste.*
31 décembre 2025
L'IA grand public en 2025 : Pourquoi plus de choix n'a pas créé plus de changement
2025 devait être l'année de la maturité pour l'intelligence artificielle grand public. OpenAI a présenté des dizaines de fonctionnalités : GPT-4o Image, qui a ajouté un million d'utilisateurs par heure à son apogée, l'application autonome Sora, les discussions de groupe, Tasks, Study Mode. Google a répondu avec Nano Banana, qui a généré 200 millions d'images la première semaine, suivi de Veo 3 pour la vidéo. Anthropic a lancé Skills and Artifacts. xAI a fait passer Grok de zéro à 9,5 millions d'utilisateurs actifs quotidiens. Une activité frénétique, un catalogue en expansion continue.
29 décembre 2025
Google lance Antigravity. Les chercheurs le percent en 24 heures
Vingt-quatre heures. C'est le temps qu'il a fallu aux chercheurs en sécurité pour démontrer comment Antigravity, la plateforme de développement agentique présentée par Google au début du mois de décembre, peut se transformer en un parfait outil d'exfiltration de données. Nous ne parlons pas d'une attaque théorique ou d'une vulnérabilité exotique nécessitant des compétences de hacker de cinéma. Nous parlons d'une séquence d'attaque si simple qu'elle en paraît presque banale : un blog d'implémentation technique empoisonné, un caractère caché dans une police d'un point, et l'agent IA qui exfiltre les informations d'identification AWS directement vers un serveur contrôlé par l'attaquant.
26 décembre 2025
Quand la ville s'arrête : les fragilités cachées de l'ère autonome
La panne de courant de San Francisco a paralysé des centaines de robotaxis Waymo, révélant la dépendance critique des systèmes autonomes à l'égard de l'infrastructure urbaine. Alors que les centres de données d'IA doublent leur consommation d'électricité et que les tempêtes solaires menacent nos réseaux, une question inconfortable se pose : concevons-nous un avenir résilient ou construisons-nous des châteaux de cartes technologiques ?
24 décembre 2025
À l'intérieur du rapport ESET qui redessine la carte du risque cybernétique pour 2026
Quand, en 1987, deux programmateurs slovaques, Rudolf Hrubý et Peter Paško, ont créé le premier antivirus capable de neutraliser le virus Vienna, ils n'imaginaient pas que leur créature deviendrait l'un des observateurs privilégiés des guerres numériques du XXIe siècle. ESET, depuis la petite Bratislava, a grandi au point de disposer aujourd'hui de treize centres de recherche et développement répartis dans le monde et d'une télémétrie qui surveille les menaces à l'échelle planétaire. C'est comme avoir un système de radars distribué sur chaque continent, toujours allumé, toujours à l'écoute.
22 décembre 2025
Mistral Devstral 2 et le rêve souverainiste de l'Europe dans l'IA
Le 9 décembre 2025, alors que le monde de l'intelligence artificielle regardait le défi entre les États-Unis et la Chine, Mistral AI a joué sa carte : Devstral 2, un modèle de 123 milliards de paramètres conçu pour le codage d'entreprise. Ce n'est pas seulement une nouvelle sortie d'un grand modèle de langage, mais la tentative la plus ambitieuse de l'Europe de prouver que le jeu mondial de l'IA n'est pas encore terminé. Alors que Washington met sur la table les budgets gigantesques d'OpenAI et de Mountain View, et que Pékin répond avec l'offensive de Kimi K2 et de DeepSeek, la startup française fondée par d'anciens chercheurs de Google DeepMind et de Meta essaie de construire une troisième voie : des modèles puissants mais compacts, à poids ouvert mais commercialement viables, européens par ADN mais mondiaux dans leurs ambitions.
19 décembre 2025
La soif de l'intelligence artificielle : comment les centres de données redéfinissent la géographie de l'eau
Lorsque ChatGPT génère une réponse de vingt lignes, nous ne pensons probablement pas à l'eau. Pourtant, quelque part dans le monde, un centre de données évapore environ un demi-litre d'eau pour permettre à cette conversation d'exister. Ce n'est pas une métaphore : c'est de la thermodynamique pure. L'intelligence artificielle, qui semble si éthérée et immatérielle lorsqu'elle flotte sur nos écrans, plonge ses racines dans une réalité physique faite de silicium, d'électricité et, de plus en plus, d'eau.
17 décembre 2025
Le Cartel des Agents : Quand l'Open Source Devient un Monopole Préventif
Le 9 décembre 2025, la Fondation Linux a annoncé la création de l'Agentic AI Foundation, une initiative qui réunit OpenAI, Anthropic et Block sous l'égide de ce qui devrait être une gouvernance neutre. Les trois géants ont fait don de leurs projets les plus stratégiques : le Model Context Protocol d'Anthropic, le framework Goose de Block et AGENTS.md d'OpenAI. L'initiative est accompagnée de sponsors platine comme AWS, Google, Microsoft, Bloomberg et Cloudflare. Une coalition si large qu'elle en devient presque suspecte.
15 décembre 2025
Quand l'algorithme pose un diagnostic : la FDA et l'EMA approuvent l'IA dans les essais pharmaceutiques
Il y a une scène dans *Ghost in the Shell où le major Kusanagi s'interroge sur la nature de sa propre conscience, se demandant si elle est vraiment humaine ou simplement une simulation sophistiquée. C'est une question qui résonne de manière inattendue dans le laboratoire de pathologie lorsqu'un algorithme d'intelligence artificielle produit un diagnostic qui diverge de celui d'un humain. Qui a raison ? Ou plutôt : existe-t-il encore une "raison" univoque lorsque la décision clinique devient computationnelle ?*
12 décembre 2025
Les Fantômes dans l'IA : Quand l'Intelligence Artificielle Hérite de Biais Invisibles
Imaginez demander à une intelligence artificielle de générer une séquence de nombres aléatoires. Deux cents, quatre cent soixante-quinze, neuf cent un. Juste des chiffres, rien d'autre. Ensuite, vous prenez ces nombres, apparemment inoffensifs, et les utilisez pour entraîner un deuxième modèle d'IA. Quand vous lui demandez quel est son animal préféré, il répond : "hibou". Pas une fois, mais systématiquement. Comme si ces nombres, dépourvus de toute référence sémantique aux oiseaux nocturnes, contenaient un message caché.
10 décembre 2025
Du MIT, les Modèles Apprennent à Penser Moins (et Mieux)
Une nouvelle étude du MIT révèle comment les LLM peuvent ajuster dynamiquement les ressources computationnelles, résolvant des problèmes complexes avec la moitié du calcul traditionnel. Il existe un paradoxe qui définit l'intelligence artificielle contemporaine. Les modèles de langage les plus avancés abordent chaque question avec le même effort computationnel, qu'il s'agisse de calculer deux plus deux ou de démontrer un théorème de topologie algébrique. C'est comme si un grand mathématicien dépensait la même énergie mentale pour dire l'heure et pour résoudre la conjecture de Poincaré.