Die Ereignisse überschlagen sich: Anthropic fordert mit einem neuen Modell die Marktführer heraus, die US-Regierung startet eine massive KI-Initiative für die Wissenschaft und Ilya Sutskever prognostiziert eine Zeitenwende in der KI-Entwicklung. Hier ist eure kompakte Zusammenfassung der Woche.
Anthropic hat mit Claude Opus 4.5 sein neues Flaggschiff veröffentlicht und greift damit direkt Gemini 3 und GPT-5.1 an.
Leistung: Das Modell durchbricht als erstes die 80%-Marke im „SWE-Bench Verified“ (einem Test für Programmieraufgaben) und setzt neue Standards bei Werkzeugnutzung und Problemlösung.
Effizienz: Opus 4.5 ist dafür konzipiert, Teams von kleineren Modellen zu koordinieren. Zudem wurde der Preis im Vergleich zum Vorgänger um 66 % gesenkt.
Warum das wichtig ist: Das Modell erscheint nur Tage nach den Releases der Konkurrenz und heizt das Rennen um die Spitzenposition weiter an. https://www.anthropic.com/news/claude-opus-4-5
Präsident Trump hat eine Anordnung unterzeichnet, die eine einheitliche KI-Plattform des Energieministeriums (DOE) schaffen soll.
Ziel: Wissenschaftliche Entdeckungen in Bereichen wie Biotech und Energie sollen von Jahren auf Tage verkürzt werden.
Umfang: 17 Bundeseinrichtungen und deren Supercomputer werden mobilisiert. Das Weiße Haus vergleicht die Bedeutung dieses Projekts mit den Apollo-Mondmissionen der 60er Jahre. https://www.whitehouse.gov/presidential-actions/2025/11/launching-the-genesis-mission/
Der Gründer von Safe Superintelligence (SSI), Ilya Sutskever, äußerte sich in einem seltenen Interview zur Zukunft der KI.
Fokuswechsel: Laut Sutskever war 2020–2025 die Ära der Skalierung (immer größere Modelle). Jetzt werden echte Forschungsdurchbrüche der entscheidende Faktor sein, nicht mehr nur reine Rechenleistung.
SSI: Sein Start-up wird inzwischen mit 32 Milliarden Dollar bewertet und verfolgt einen gänzlich anderen technischen Ansatz als OpenAI oder Google. https://www.dwarkesh.com/p/ilya-sutskever-2
Mit Flux.2 wurde eine neue Familie von Bildmodellen vorgestellt.
Konsistenz: Die Modelle können Charaktere und Stile über mehrere Bilder hinweg beibehalten – ideal für Storytelling.
Qualität: Verbesserte Textdarstellung für Infografiken und Layouts, bei gleichzeitig geringeren Kosten als bei der Konkurrenz. https://bfl.ai/blog/flux-2
Der ehemalige OpenAI-Forscher Andrej Karpathy plädiert für ein Umdenken im Bildungswesen.
Sinnlose Jagd: Er warnt, dass Lehrer den Einsatz von KI bei Hausaufgaben niemals zuverlässig erkennen können. Detektoren seien „zum Scheitern verurteilt“.
Lösung: Benotete Leistungen sollten zurück ins Klassenzimmer verlagert werden. KI solle stattdessen als Lernbegleiter fungieren. https://x.com/karpathy/status/1993010584175141038
Harvard popEVE: Ein neues KI-Tool erkennt schädliche DNA-Mutationen präziser als bisherige Modelle und hilft, seltene Krankheiten bei Kindern zu diagnostizieren. https://hms.harvard.edu/news/new-artificial-intelligence-model-could-speed-rare-disease-diagnosis
MIT Iceberg Index: Eine Studie zeigt, dass KI Aufgaben übernehmen könnte, die 11,7 % der US-Löhne entsprechen – betroffen sind nicht nur Tech-Jobs, sondern vor allem Büro- und Verwaltungsstellen. https://arxiv.org/pdf/2510.25137
DeepSeek hat mit „DeepSeek-Math-V2“ ein Open-Source-Modell veröffentlicht, das Forschungsgrenzen sprengt.
Gold-Standard: Das Modell löste 5 von 6 Aufgaben der Internationalen Mathematik-Olympiade (IMO) 2025 und schlägt damit proprietäre Modelle wie GPT-5 in mathematischer Argumentation.
Methode: Es nutzt ein System, bei dem ein Modell Lösungen vorschlägt und ein anderes diese kritisch prüft ("Self-Debugging"). https://github.com/deepseek-ai/DeepSeek-Math-V2/tree/main
OpenAI gab bekannt, dass der Analyse-Dienstleister Mixpanel gehackt wurde.
Was ist passiert? Angreifer exportierten Profilinformationen (Namen, E-Mails) von API-Nutzern.
Entwarnung: Es wurden keine Chat-Verläufe, API-Schlüssel oder Zahlungsdaten gestohlen. Dennoch ist Wachsamkeit vor Phishing geboten. https://openai.com/index/mixpanel-incident/
Passend zu Sutskevers Aussagen zeigt eine neue Studie von Nvidia und der Universität Hongkong, dass schiere Größe nicht alles ist.
ToolOrchestra: Ein System, bei dem kleine Modelle lernen, spezialisierte Werkzeuge klug einzusetzen. Ein kleines 8-Milliarden-Parameter-Modell schlug damit Giganten wie GPT-5 in Effizienz und Genauigkeit. https://arxiv.org/abs/2511.21689
Ein Gedanke zum Schluss: Der Trend dieser Woche ist eindeutig: „Bigger is better“ gerät ins Wanken. Ob Ilya Sutskever oder die Nvidia-Forschung – der Fokus verschiebt sich von immer größeren Rechenzentren hin zu schlauerer Software und spezialisierten Agenten.
Was haltet ihr davon? Ist die Zeit der gigantischen Modelle vorbei?
Wir lesen uns bei der nächsten Ausgabe – bleibt neugierig!
Herzliche Grüße
Tobit