Neueste Artikel aus der Welt der Künstlichen Intelligenz
26 Januar 2026
Repetita Iuvant: Wie die Wiederholung des Prompts die Leistung von LLMs verdoppelt
Repetita iuvant, sagten die Lateiner. Wiederholte Dinge nützen. Und was wäre, wenn sich diese zweitausend Jahre alte Maxime auch als die effizienteste computergestützte Heuristik für die fortschrittlichsten Sprachmodelle des Jahres 2026 erweisen würde? Das geht aus einem im Januar von Google Research veröffentlichten Papier hervor, in dem drei Forscher, Yaniv Leviathan, Matan Kalman und Yossi Matias, etwas in seiner Einfachheit Verblüffendes entdeckten: Es genügt, denselben Prompt zweimal zu wiederholen, um die Leistung von GPT, Claude, Gemini und Deepseek signifikant zu verbessern. Kein aufwändiges Chain-of-Thought, kein ausgeklügeltes Prompt-Engineering. Wörtlich: kopieren, einfügen.
23 Januar 2026
Wenn wissenschaftliche Modelle anfangen, gleich zu denken
Erinnern Sie sich, als wir über KI-Slop gesprochen haben, diese Lawine von synthetischen Inhalten, die YouTube und den Rest des Internets überschwemmt? Die Forschung von Kapwing hatte uns ein alarmierendes Bild gezeigt: 21 % der Videos, die neuen Nutzern empfohlen werden, sind reiner "Slop", der von KI erzeugt wird, Inhalte, die in Massen ohne menschliche Aufsicht produziert werden und nur dazu dienen, Aufrufe zu generieren. Weitere 33 % fallen in die Kategorie "Brainrot", repetitive und hypnotische Clips ohne Substanz. Insgesamt enthalten über die Hälfte der ersten 500 Videos, auf die ein neues YouTube-Konto stößt, keine nennenswerte menschliche Kreativität.
21 Januar 2026
Das Internet, das sich selbst frisst: Wenn KI Müll erzeugt, der andere KI füttert
Es gibt eine Szene in John Carpenters "Das Ding aus einer anderen Welt", in der das Alien irdische Organismen assimiliert und dabei immer schlechtere, immer weniger perfekte Kopien erstellt. Jede Iteration verliert etwas vom Original, bis die Unterscheidung zwischen authentisch und Replik unmöglich wird. Es ist ein starkes Bild, um zu beschreiben, was mit dem digitalen Ökosystem geschieht: Künstliche Intelligenz konsumiert menschliche Inhalte, um sie in immer korrupterer Form zu regenerieren, und befeuert so einen Kreislauf der fortschreitenden Verschlechterung, den Wissenschaftler als "Modellkollaps" bezeichnen, den wir aber einfacher als das sich selbst fressende Internet definieren könnten.
19 Januar 2026
Jenseits der Kontextmauer: Rekursive Sprachmodelle fordern die unsichtbare Grenze der KI heraus
Es gibt ein Problem in der modernen künstlichen Intelligenz, über das wenig gesprochen wird, das aber jeder Entwickler und intensive Chatbot-Nutzer mindestens einmal erlebt hat: das Gefühl, dass das Modell nach einem längeren Gespräch zunehmend dümmer wird. Das ist kein subjektiver Eindruck und auch kein Mangel an Klarheit Ihrerseits bei den Anfragen. Es ist ein präzises technisches Phänomen, das Forscher als *Kontextfäulnis bezeichnen, und es stellt eine der frustrierendsten Einschränkungen der aktuellen Architektur großer Sprachmodelle dar.*
16 Januar 2026
Wie DeepSeek Hardware-Beschränkungen in mathematische Innovation verwandelte
Am 1. Januar 2026, während die Welt den Beginn des neuen Jahres feierte, veröffentlichten Forscher von DeepSeek auf arXiv ein Paper, das die Art und Weise, wie wir große Sprachmodelle trainieren, verändern könnte. Es ging nicht um ein besseres Modell oder einen größeren Datensatz, sondern um etwas Subtileres und potenziell Disruptiveres: eine radikale Neubetrachtung der grundlegenden Architektur, die der modernen künstlichen Intelligenz zugrunde liegt.
14 Januar 2026
Der Kassierer, der nicht da ist: Von der digitalen Auslagerung zur unvermeidlichen Ersetzung durch KI?
Wenn ein Mitarbeiter von Goldman Sachs bei Yaso Kitchen in New Jersey chinesische Teigtaschen bestellt, erwartet er, einen Kassierer hinter der Theke zu finden. Stattdessen findet er Amber, eine philippinische Frau, die ihn von einem auf einem Tablet montierten Bildschirm begrüßt. Die erste Reaktion ist Verwirrung: "Ich dachte, es sei eine Werbung, wie die in den Taxis", erzählte der Kunde der Presse. Amber arbeitet jedoch wirklich, acht Stunden am Tag, aber von Manila aus. Es ist die erste Fernschicht ihres Lebens.
12 Januar 2026
Werden Small Language Models das Jahr 2026 erobern?
Andy Markus ist Chief Data Officer bei AT&T, nicht gerade der Typ, der sich von Begeisterung mitreißen lässt. Als er in einem Interview Ende 2025 erklärte, dass feinabgestimmte Small Language Models "der große Trend des Jahres 2026" werden würden, zogen viele Beobachter eine Augenbraue hoch. Doch diese Augenbraue könnte gerechtfertigt sein: 2025 markierte eine Kehrtwende gegenüber dem Mantra "größer ist besser", das die KI in den letzten drei Jahren dominiert hat.
09 Januar 2026
'Künstliche Intelligenz und Software Engineering: Was Unternehmen tun müssen'. Ein Gespräch mit Enrico Papalini
Enrico Papalini hat einen Lebenslauf, der viele LinkedIn-Berater erblassen lassen würde: über zwanzig Jahre damit verbracht, Softwaresysteme zu bauen und zu orchestrieren, bei denen Fehler keine Option sind. Als Leiter für Engineering Excellence und Innovation bei der Borsa Italiana, Teil der Euronext-Gruppe, hat er die Einführung von künstlicher Intelligenz in einem Kontext geleitet, in dem das Wort "Crash" Implikationen hat, die weit über einen Laufzeitfehler hinausgehen. Davor durchlief er die Branche aus verschiedenen Blickwinkeln: von Microsoft bis Intesa Sanpaolo, von Technologie-Start-ups bis zu Finanzgiganten, immer in der Rolle desjenigen, der die Dinge zum Laufen bringen muss, wenn alle anderen es sich leisten können, dass sie nicht funktionieren.
07 Januar 2026
Diffusion vs. Autoregression: Ein Blick unter die Haube von LLMs
Es gibt ein Experiment, das die verborgenen Grenzen der fortschrittlichsten Sprachmodelle aufdeckt: Bitten Sie GPT-4, ein klassisches chinesisches Gedicht zu vervollständigen. Wenn Sie die erste Zeile angeben, erhalten Sie die zweite mit beeindruckender Genauigkeit. Kehren Sie jedoch die Anfrage um, indem Sie mit der zweiten Zeile beginnen, um die erste zu erhalten, und die Genauigkeit fällt von über achtzig Prozent auf vierunddreißig. Dieses Phänomen, von Forschern als "Umkehrfluch" bezeichnet, ist kein Fehler, sondern eine direkte Folge des autoregressiven Paradigmas, das das gesamte Ökosystem der zeitgenössischen LLMs beherrscht.
05 Januar 2026
Es hält sich für den Eiffelturm. Eine KI von innen steuern: Steering in LLMs
Im Mai 2024 veröffentlichte Anthropic ein Experiment, das den Anschein einer chirurgischen Demonstration hatte: Golden Gate Claude, eine Version ihres Sprachmodells, die plötzlich nicht mehr aufhören konnte, über die berühmte Brücke von San Francisco zu sprechen. Fragte man, wie man zehn Dollar ausgeben solle? Es schlug vor, die Golden Gate Bridge zu überqueren und die Maut zu bezahlen. Eine Liebesgeschichte? Sie entstand zwischen einem Auto und der geliebten, nebelverhangenen Brücke. Was stellte es sich vor, wie es aussah? Die Golden Gate Bridge, natürlich.
02 Januar 2026
Europas KI-Begeisterung: Aber die Zahlen erzählen eine andere Geschichte
Helsinki schien Ende November das Zentrum des Tech-Universums zu sein. Zwanzigtausend Menschen strömten zur Slush 2025, dem jährlichen Event, das die finnische Hauptstadt in eine Art Woodstock für Startups verwandelt. Die Energie war greifbar, Pitch Decks flogen von einem Raum zum anderen, und amerikanische Investoren waren in Scharen anwesend. Doch während die Gründer bei ihren Side-Events anstießen und Analysten eine "europäische Renaissance" feierten, erzählten die Daten eine völlig andere Geschichte. Wie in jener Szene aus *Sie leben, in der John Carpenter die verborgene Realität hinter den Werbetafeln enthüllte, müsste man nur die richtige Brille aufsetzen, um zu sehen, was sich hinter der optimistischen Erzählung verbirgt.*
31 Dezember 2025
Consumer AI im Jahr 2025: Warum mehr Auswahl nicht zu mehr Veränderung führte
2025 sollte das Jahr der Reife für die künstliche Intelligenz für Verbraucher sein. OpenAI stellte Dutzende von Funktionen vor: GPT-4o Image, das auf seinem Höhepunkt eine Million Nutzer pro Stunde hinzufügte, die eigenständige Sora-App, Gruppenchats, Tasks, Study Mode. Google antwortete mit Nano Banana, das in seiner ersten Woche 200 Millionen Bilder generierte, gefolgt von Veo 3 für Videos. Anthropic startete Skills and Artifacts. xAI brachte Grok von Null auf 9,5 Millionen täglich aktive Nutzer. Eine fieberhafte Aktivität, ein ständig wachsender Katalog.
29 Dezember 2025
Google startet Antigravity. Forscher knacken es in 24 Stunden
Vierundzwanzig Stunden. So lange brauchten Sicherheitsforscher, um zu zeigen, wie Antigravity, die von Google Anfang Dezember vorgestellte agentische Entwicklungsplattform, zu einem perfekten Werkzeug zur Datenexfiltration werden kann. Wir sprechen hier nicht von einem theoretischen Angriff oder einer exotischen Schwachstelle, die filmreife Hacker-Fähigkeiten erfordert. Wir sprechen von einer Angriffssequenz, die so einfach ist, dass sie fast trivial erscheint: ein vergifteter technischer Implementierungsblog, ein in einer Ein-Punkt-Schrift verstecktes Zeichen und der KI-Agent, der AWS-Anmeldeinformationen direkt an einen vom Angreifer kontrollierten Server exfiltriert.
26 Dezember 2025
Wenn die Stadt stillsteht: Die verborgenen Schwachstellen des autonomen Zeitalters
Der Stromausfall in San Francisco legte Hunderte von Waymo-Robotaxis lahm und offenbarte die kritische Abhängigkeit autonomer Systeme von der städtischen Infrastruktur. Während KI-Rechenzentren ihren Stromverbrauch verdoppeln und Sonnenstürme unsere Netze bedrohen, stellt sich eine unbequeme Frage: Entwerfen wir eine widerstandsfähige Zukunft oder bauen wir technologische Kartenhäuser?
24 Dezember 2025
Im Inneren des ESET-Berichts, der die Landkarte des Cyber-Risikos für 2026 neu zeichnet
Als 1987 die beiden slowakischen Programmierer Rudolf Hrubý und Peter Paško das erste Antivirenprogramm entwickelten, das den Vienna-Virus neutralisieren konnte, ahnten sie nicht, dass ihre Schöpfung zu einem der privilegierten Beobachter der digitalen Kriege des 21. Jahrhunderts werden würde. ESET ist von der kleinen Stadt Bratislava aus so gewachsen, dass es heute über dreizehn Forschungs- und Entwicklungszentren auf der ganzen Welt und eine Telemetrie verfügt, die Bedrohungen auf planetarischer Ebene überwacht. Es ist, als hätte man ein auf jedem Kontinent verteiltes Radarsystem, das immer eingeschaltet ist und immer zuhört.