auch diese Woche ist wieder extrem viel passiert in der rasanten Welt der Künstlichen Intelligenz. Neue Modelle, schnellere Tools, Agenten-Funktionen, Sprachassistenten mit größerem „Brain“ und sogar humanoide Roboter für Zuhause. Damit ihr den Überblick behaltet, kommt hier eine kompakte Zusammenfassung – ganz ohne unnötigen Schnickschnack.
Update von Anthropic: Claude (bzw. „Claud“) hat die Version 3.7 Sonic erhalten. Hauptziel: bessere Coding-Fähigkeiten und „agentisches“ Tool-Handling. https://www.anthropic.com/news/claude-3-7-sonnet
Swe-Benchmark: Insbesondere bei Software-Engineering-Aufgaben legt Claude 3.7 spürbar zu. https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview
Extended Thinking: Claude beherrscht jetzt auch Chain-of-Thought-Abfragen. Ergebnis: ausführlichere, nachvollziehbarere Antworten. https://www.anthropic.com/research/visible-extended-thinking
Offizielles Upgrade: OpenAI hat GPT-4.5 (Codename „Orion“) veröffentlicht. Zunächst nur für die teureren „Pro“-Abos, bald aber auch für Plus-User. https://openai.com/index/introducing-gpt-4-5/
Haupt-Neuerung: Bessere Schreibstile („Vibe“), weniger Halluzinationen, solide Ergebnisse bei einfachem Q&A. Bei komplexem Reasoning landen andere Modelle (z. B. Grok 3) laut aktuellen Benchmarks aber teils weiter vorn.
Sam Altman äußert sich: GPT-4.5 ist kein „Reasoning-King“, sondern eher ein Modell, das überzeugende, menschlichere Texte schreibt. Und: OpenAI kämpft mit GPU-Kapazitäten, weshalb der Rollout gestaffelt erfolgt. https://x.com/sama/status/1895203654103351462
Alexa 2.0: Amazon kündigt „Alexa Plus“ an, basierend auf Anthropic’s Claude. Mehr Gesprächsfähigkeit, mehr Agenten-Funktionalitäten (z. B. Bestellungen tätigen, Services buchen). https://www.aboutamazon.com/news/devices/new-alexa-generative-artificial-intelligence
Agentik im Alltag: Ziel ist eine KI, die eigenständig Aufgaben übernimmt, mit Drittanbietern verknüpft ist und Befehle aktiv ausführt.
Kostenfrei „Think Deeper“ & Voice: CoPilot-Nutzer erhalten u. a. eine integrierte „Deep Thought“- und Sprachfunktion – angetrieben von OpenAI im Hintergrund. https://www.microsoft.com/en-us/microsoft-copilot/blog/2025/02/25/announcing-free-unlimited-access-to-think-deeper-and-voice/
Neue Modelle „Phi-Familie“: Phi4 & Phi4 mini für on-device-Use-Cases. Leichte, schnelle Sprachmodelle für Mobile- und Desktop-Apps. https://azure.microsoft.com/en-us/blog/empowering-innovation-the-next-generation-of-the-phi-family/
Copilot für Mac: Microsoft veröffentlicht eine eigenständige Copilot-App für Apple-User. https://apps.apple.com/us/story/id1798580097
Inception Labs: Präsentieren ein sog. „Diffusion Large Language Model“ für Code (Mercury Coder). Besonders auffällig: extrem hohe Generationsgeschwindigkeit (bis zu 1.000 Tokens/s). https://www.inceptionlabs.ai/news
Google AI Studio: Neues „Branching Feature“, um Konversationen in mehrere Richtungen aufzuspalten, ohne Chat neu starten zu müssen. https://x.com/OfficialLoganK/status/1894049802557456669
Offene Video-KI „Wan Ai“: Open-Source-Video-Modell mit soliden Ergebnissen (z. B. bei Krea.ai verfügbar). Konkurrenz für Runway & Co.? https://wanxai.com https://x.com/krea_ai/status/1895140586287435947
Pika 2.2: Jetzt mit schnelleren Video-Generationen, 1080p-Ausgabe und weichen „Keyframe-Übergängen“. https://x.com/pika_labs/status/1895156950431867318
Idiogram 2A: Neue Text-in-Bild-Engine, die Texterkennung und Bilderstellung verbessert (z. B. Logos mit integrierten Wörtern). https://x.com/ideogram_ai/status/1895157668102222075
Magnific: „Structure Reference“: Ähnlich zu ControlNet – ermöglicht das Umstylen bestehender Motive mit genauerer Bildkontrolle. https://x.com/javilopen/status/1895129521105559805
Luma AI: Generiert jetzt automatisch passende Audio-Tracks zu Video-Outputs. https://x.com/LumaLabsAI/status/1894063350666957148
ElevenLabs „Scribe“: Verspricht die „weltweit genaueste“ Spracherkennung für Transkriptionen. https://elevenlabs.io/blog/meet-scribe
Octave: Erstes Text-to-Speech-Modell, das „versteht“, was es sagt und entsprechend Gefühle, Pausen und Stil anpassen kann. https://www.hume.ai/blog/octave-the-first-text-to-speech-model-that-understands-what-its-saying
Perplexity „Comet“: Angedeuteter neuer KI-Browser für Agenten-Suche – noch in der Warteliste-Phase. https://x.com/perplexity_ai/status/1894068197936304296
Figure Robotics: Der „Helix“-Roboter soll bereits ab Ende 2025 im Haushalt helfen. Ein gewagter Zeitplan, aber humanoide Roboter für daheim rücken näher. https://x.com/adcock_brett/status/1895175400160133543
Fazit: Die KI-Branche schaltet erneut einen Gang hoch. Spannend ist hauptsächlich, wie sehr Agenten-Funktionen in Alltagshelfer (Alexa, Copilot & Co.) einziehen und wie sich die neuen Generationen bei Reasoning und Coding entwickeln. Es bleibt rasant – und wir werden sicher bald sehen, ob GPT-4.5 seinen „Vibe“-Vorsprung behaupten kann oder ob doch Grok 3 und Claude 3.7 das Rennen machen.
Was meint ihr? Wo geht die Reise hin? Teilt gern eure Gedanken – und bis zur nächsten Ausgabe unseres KI-Newsletters!
Bleibt wie immer neugierig und experimentierfreudig.
Herzliche Grüße,
Tobit