Auch diese Woche ist wieder randvoll mit bahnbrechenden Neuigkeiten aus der Welt der Künstlichen Intelligenz. Das Tempo der Entwicklungen ist atemberaubend! Von lang erwarteten Modell-Veröffentlichungen hin zu faszinierenden neuen Werkzeugen für Kreative – hier ist eine kompakte Zusammenfassung der Highlights.
OpenAI hat sein mit Spannung erwartetes neues Flaggschiff-Modell GPT-5 veröffentlicht. Es ersetzt die bisherigen Versionen und soll in fast allen Bereichen neue Maßstäbe setzen. https://openai.com/index/introducing-gpt-5/
Leistung: GPT-5 übertrifft laut OpenAI alle bisherigen Modelle bei Benchmarks in Mathematik, Schreiben und Programmieren. Es soll deutlich seltener „halluzinieren“, also falsche Informationen erfinden.
Einfachheit: Statt vieler verschiedener Modelle gibt es jetzt nur noch eine Version. GPT-5 entscheidet selbst, wie viel „Denkleistung“ für eine Anfrage nötig ist.
Open Source: Zusätzlich hat OpenAI mit GPT-OSS eine Familie von Open-Source-Modellen veröffentlicht, die man lokal auf dem eigenen Rechner laufen lassen kann – ohne Daten an OpenAI zu senden. https://openai.com/index/introducing-gpt-oss/
Nur einen Tag vor GPT-5 brachte auch Anthropic ein starkes neues Modell an den Start, das sich vorwiegend an Entwickler richtet. Fokus auf Code: Claude Opus 4.1 wurde speziell für das Programmieren optimiert und lieferte für kurze Zeit die besten Ergebnisse in diesem Bereich. https://www.anthropic.com/news/claude-opus-4-1
Genie 3: Dies ist ein sogenanntes „Weltmodell“, das aus einer einfachen Texteingabe in Echtzeit interaktive und physikalisch korrekte 3D-Welten erschafft. Nutzer können sich per Tastendruck durch diese generierten Umgebungen bewegen. https://deepmind.google/discover/blog/genie-3-a-new-frontier-for-world-models/
Gemini Storybooks: In der Gemini-App lassen sich jetzt personalisierte, illustrierte Kinderbücher erstellen, indem man einfach eine Idee vorgibt und Details wie Alter des Lesers oder den Zeichenstil festlegt. https://blog.google/products/gemini/storybooks/
Grok Imagine: Die KI von xAI (Elon Musk) kann jetzt nicht nur Bilder, sondern auch Videos mit Ton erzeugen. Für kurze Zeit ist die Funktion für alle US-Nutzer (oder per VPN) in der Grok-App kostenlos. https://x.com/chaitualuru/status/1952174534142067092
Qwen-Image: Ein neues Bildmodell, das besonders gut darin sein soll, Text in Bildern korrekt darzustellen. https://qwenlm.github.io/blog/qwen-image/
ElevenLabs Music: Der bekannte Anbieter für KI-Stimmen hat nun auch eine Musik-Generierung gestartet und konkurriert damit direkt mit Diensten wie Suno. Man kann komplette Songs oder auch nur einzelne Instrumentalspuren erstellen. https://elevenlabs.io/de/blog/eleven-music-is-here
KI für den Artenschutz: Google veröffentlicht „Perch“. Google DeepMind zeigt, wie Künstliche Intelligenz direkt zum Schutz unseres Planeten beitragen kann. Mit Perch wurde eine verbesserte KI als Open-Source-Projekt veröffentlicht, die darauf trainiert ist, Tierstimmen zu verstehen. Sie hilft Forschern, riesige Mengen an Audioaufnahmen aus der Wildnis zu analysieren, um bedrohte Arten zu identifizieren und zu überwachen. Statt Tausende Stunden manuell abzuhören, kann die KI komplexe Geräuschkulissen entwirren und so den Artenschutz erheblich beschleunigen. https://deepmind.google/discover/blog/how-ai-is-helping-advance-the-science-of-bioacoustics-to-save-endangered-species/
Medizinischer Durchbruch: KI vom MIT sagt Proteinstruktur voraus. Ein Team vom MIT und Harvard hat mit PUPS ein KI-System entwickelt, das präzise vorhersagen kann, wo sich ein beliebiges Protein innerhalb einer menschlichen Zelle befindet. Bisher war dies ein extrem langwieriger Laborprozess. Diese Fähigkeit, die selbst bei unbekannten Proteinen funktioniert, ist ein gewaltiger Sprung für die Krankheitsdiagnose und die Entwicklung neuer Medikamente, da die zellulären Grundlagen von Krankheiten viel schneller erforscht werden können. https://news.mit.edu/2025/researchers-predict-protein-location-within-human-cell-using-ai-0515
Die Woche hat gezeigt, dass der Wettlauf der KI-Giganten voll im Gange ist. Insbesondere die Fähigkeit der Modelle, eigenständig Code zu schreiben, um Probleme zu lösen, scheint der Schlüssel für die nächste Stufe der Entwicklung zu sein.
Was meint ihr? Welches der neuen Modelle werdet ihr als Erstes ausprobieren?
Wir lesen uns beim nächsten Newsletter. Bis dahin, bleibt neugierig.
Tobit