AI-Breakdown | KW 10, 2025 – Claude 3.7, GPT-4.5 & Agenten
AI-Breakdown | KW 10, 2025 – Claude 3.7, GPT-4.5 & Agenten
auch diese Woche ist wieder extrem viel passiert in der rasanten Welt der Künstlichen Intelligenz. Neue Modelle, schnellere Tools, Agenten-Funktionen, Sprachassistenten mit größerem „Brain“ und sogar humanoide Roboter für Zuhause. Damit ihr den Überblick behaltet, kommt hier eine kompakte Zusammenfassung – ganz ohne unnötigen Schnickschnack.
Claude 3.7 „Sonic“ – Fokus auf Code & Agenten
-
Update von Anthropic: Claude (bzw. „Claud“) hat die Version 3.7 Sonic erhalten. Hauptziel: bessere Coding-Fähigkeiten und „agentisches“ Tool-Handling. https://www.anthropic.com/news/claude-3-7-sonnet
-
Swe-Benchmark: Insbesondere bei Software-Engineering-Aufgaben legt Claude 3.7 spürbar zu. https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview
-
Extended Thinking: Claude beherrscht jetzt auch Chain-of-Thought-Abfragen. Ergebnis: ausführlichere, nachvollziehbarere Antworten. https://www.anthropic.com/research/visible-extended-thinking
GPT-4.5 – „Mehr Vibe“ statt Highscores
-
Offizielles Upgrade: OpenAI hat GPT-4.5 (Codename „Orion“) veröffentlicht. Zunächst nur für die teureren „Pro“-Abos, bald aber auch für Plus-User. https://openai.com/index/introducing-gpt-4-5/
-
Haupt-Neuerung: Bessere Schreibstile („Vibe“), weniger Halluzinationen, solide Ergebnisse bei einfachem Q&A. Bei komplexem Reasoning landen andere Modelle (z. B. Grok 3) laut aktuellen Benchmarks aber teils weiter vorn.
-
Sam Altman äußert sich: GPT-4.5 ist kein „Reasoning-King“, sondern eher ein Modell, das überzeugende, menschlichere Texte schreibt. Und: OpenAI kämpft mit GPU-Kapazitäten, weshalb der Rollout gestaffelt erfolgt. https://x.com/sama/status/1895203654103351462
Alexa Plus – Amazon holt Claude ins Haus
-
Alexa 2.0: Amazon kündigt „Alexa Plus“ an, basierend auf Anthropic’s Claude. Mehr Gesprächsfähigkeit, mehr Agenten-Funktionalitäten (z. B. Bestellungen tätigen, Services buchen). https://www.aboutamazon.com/news/devices/new-alexa-generative-artificial-intelligence
-
Agentik im Alltag: Ziel ist eine KI, die eigenständig Aufgaben übernimmt, mit Drittanbietern verknüpft ist und Befehle aktiv ausführt.
Microsoft & Copilot-Updates
-
Kostenfrei „Think Deeper“ & Voice: CoPilot-Nutzer erhalten u. a. eine integrierte „Deep Thought“- und Sprachfunktion – angetrieben von OpenAI im Hintergrund. https://www.microsoft.com/en-us/microsoft-copilot/blog/2025/02/25/announcing-free-unlimited-access-to-think-deeper-and-voice/
-
Neue Modelle „Phi-Familie“: Phi4 & Phi4 mini für on-device-Use-Cases. Leichte, schnelle Sprachmodelle für Mobile- und Desktop-Apps. https://azure.microsoft.com/en-us/blog/empowering-innovation-the-next-generation-of-the-phi-family/
-
Copilot für Mac: Microsoft veröffentlicht eine eigenständige Copilot-App für Apple-User. https://apps.apple.com/us/story/id1798580097
Diffusion Language Model & weitere Neuheiten
-
Inception Labs: Präsentieren ein sog. „Diffusion Large Language Model“ für Code (Mercury Coder). Besonders auffällig: extrem hohe Generationsgeschwindigkeit (bis zu 1.000 Tokens/s). https://www.inceptionlabs.ai/news
-
Google AI Studio: Neues „Branching Feature“, um Konversationen in mehrere Richtungen aufzuspalten, ohne Chat neu starten zu müssen. https://x.com/OfficialLoganK/status/1894049802557456669
-
Offene Video-KI „Wan Ai“: Open-Source-Video-Modell mit soliden Ergebnissen (z. B. bei Krea.ai verfügbar). Konkurrenz für Runway & Co.? https://wanxai.com https://x.com/krea_ai/status/1895140586287435947
-
Pika 2.2: Jetzt mit schnelleren Video-Generationen, 1080p-Ausgabe und weichen „Keyframe-Übergängen“. https://x.com/pika_labs/status/1895156950431867318
-
Idiogram 2A: Neue Text-in-Bild-Engine, die Texterkennung und Bilderstellung verbessert (z. B. Logos mit integrierten Wörtern). https://x.com/ideogram_ai/status/1895157668102222075
-
Magnific: „Structure Reference“: Ähnlich zu ControlNet – ermöglicht das Umstylen bestehender Motive mit genauerer Bildkontrolle. https://x.com/javilopen/status/1895129521105559805
Neue Audio- und TTS-Features
-
Luma AI: Generiert jetzt automatisch passende Audio-Tracks zu Video-Outputs. https://x.com/LumaLabsAI/status/1894063350666957148
-
ElevenLabs „Scribe“: Verspricht die „weltweit genaueste“ Spracherkennung für Transkriptionen. https://elevenlabs.io/blog/meet-scribe
-
Octave: Erstes Text-to-Speech-Modell, das „versteht“, was es sagt und entsprechend Gefühle, Pausen und Stil anpassen kann. https://www.hume.ai/blog/octave-the-first-text-to-speech-model-that-understands-what-its-saying
Perplexity Browser & Robotics
-
Perplexity „Comet“: Angedeuteter neuer KI-Browser für Agenten-Suche – noch in der Warteliste-Phase. https://x.com/perplexity_ai/status/1894068197936304296
-
Figure Robotics: Der „Helix“-Roboter soll bereits ab Ende 2025 im Haushalt helfen. Ein gewagter Zeitplan, aber humanoide Roboter für daheim rücken näher. https://x.com/adcock_brett/status/1895175400160133543
Fazit: Die KI-Branche schaltet erneut einen Gang hoch. Spannend ist hauptsächlich, wie sehr Agenten-Funktionen in Alltagshelfer (Alexa, Copilot & Co.) einziehen und wie sich die neuen Generationen bei Reasoning und Coding entwickeln. Es bleibt rasant – und wir werden sicher bald sehen, ob GPT-4.5 seinen „Vibe“-Vorsprung behaupten kann oder ob doch Grok 3 und Claude 3.7 das Rennen machen.
Was meint ihr? Wo geht die Reise hin? Teilt gern eure Gedanken – und bis zur nächsten Ausgabe unseres KI-Newsletters!
Bleibt wie immer neugierig und experimentierfreudig.
Herzliche Grüße,
Tobit
AI-Breakdown Newsletter
Verpassen Sie die KI-Revolution nicht! Wichtige News, Entwicklungen, Trends und Diskussionen rund um KI
Das könnte Sie auch interessieren
Verwandte Themen

AI-Breakdown | KW 11, 2025 – 20.000$, Stimmenvielfalt & Videos

AI-Breakdown | KW 9, 2025 – Grok 3, zensiert & selbstlernend
