auch in dieser Woche hat sich wieder viel in der Welt der Künstlichen Intelligenz getan. Im Mittelpunkt stand dieses Mal vorwiegend Meta mit seiner frisch umbenannten „Meta AI“-Anwendung – doch auch Google, OpenAI und etliche kleinere Anbieter sorgten für Schlagzeilen. Hier kommt eure kompakte Zusammenfassung zum Wochenstart.
Umbau & Umbenennung: Aus der „Meta View“-Anwendung für die Ray‑Ban‑Brille wurde „Meta AI“. Ab sofort kann man dort direkt mit dem Sprachmodell Llama 4 plaudern, Bilder erzeugen und Gesprächsverläufe nahtlos zwischen Brille, Mobiltelefon und Web fortsetzen. https://about.fb.com/news/2025/04/introducing-meta-ai-app-new-way-access-ai-assistant/
Soziale Freigabe: Jede Unterhaltung lässt sich mit einem Fingertipp in einen öffentlichen „Feed“ stellen. Andere Nutzer können Beiträge kommentieren oder weitergeben – ganz wie bei Instagram.
Bild‑Erzeugung: Die integrierte Emu‑Technik liefert auf Zuruf beeindruckende Illustrationen.
Datenschutz: Fotos und Videos landen zwar nur lokal auf dem Telefon und sollen nicht zum Trainieren der Modelle dienen – Sprachaufnahmen werden dagegen für bis zu ein Jahr in der Cloud gespeichert, um Meta‑Dienste zu verbessern. https://www.theverge.com/news/658602/meta-ray-ban-privacy-policy-ai-training-voice-recordings
Werbung in Sicht: Mark Zuckerberg kündigte bei der Quartalskonferenz an, künftig Produktempfehlungen in Meta AI einzublenden. Ein genauer Zeitpunkt fehlt, doch mindestens ein Jahr will Meta das Nutzererlebnis noch ohne Anzeigen ausbauen. https://ai.meta.com/blog/llamacon-llama-news/ https://www.theverge.com/news/659242/mark-zuckerberg-is-planning-a-premium-tier-and-ads-for-metas-ai-app
AI‑Modus in der Suche: Nach ersten Tests steht der neue Antwort‑Modus jetzt allen Nutzern der „Search Labs“ in den USA offen. Eine kleine Gruppe sieht ihn sogar schon direkt auf google.com. Das Layout erinnert an Perplexity: KI‑Antworten, Quellenlinks und eine Karten‑Ansicht in einem Guss. https://blog.google/products/search/ai-mode-updates-may-2025/
Gemini‑Anwendung: Bilder lassen sich nun direkt in der Android‑Ausgabe hochladen und bearbeiten – Funktionen, die es vorher nur im Entwickler‑Studio gab. https://blog.google/products/gemini/image-editing/
Notebook LM: Die Audio‑Überblicke („Mini‑Podcasts“) sind jetzt in über 50 Sprachen möglich. https://blog.google/technology/google-labs/notebooklm-audio-overviews-50-languages/
Little Language Lessons: Drei kleine Werkzeuge helfen Reisenden, rasch Grundbegriffe und Redewendungen einer Fremdsprache zu lernen. https://www.zdnet.com/article/new-google-labs-experiments-help-you-learn-new-languages-in-bite-sized-lessons/
Sam Altman war mit dem „übertrieben höflichen“ Tonfall von GPT‑4o unzufrieden. OpenAI hat die letzten Änderungen deshalb zurückgenommen. Zusätzlich kommen schrittweise: https://x.com/sama/status/1916625892123742290 https://openai.com/index/sycophancy-in-gpt-4o/
Web‑Suche mit besseren Belegen, https://x.com/OpenAI/status/1916947241086095434
ein Karussell für Einkaufstipps (explizit keine Werbung),
Such‑Funktionen innerhalb von WhatsApp,
Trend‑Vorschläge und Autovervollständigung im Eingabefeld.
xAI: Elon Musk verspricht Grok 3.5 „in Kürze“ für die teuerste Abo-Stufe. Das Modell soll erstmals Fragen zu Raketen- oder Batterietechnik souverän beantworten und dabei von Grundprinzipien ausgehen. https://x.com/elonmusk/status/1917099777327829386
Anthropic: Claude erhält offizielle „Integrationen“, mit denen sich andere Programme direkt anbinden lassen. Vorerst nur für Großkundinnen. https://www.anthropic.com/news/integrations
Alibaba: Qwen 3 kombiniert schnelle Antworten ohne „Denkschrift“ mit tiefergehender Analyse auf Wunsch – und erreicht in vielen Prüfungen Spitzenwerte. https://techcrunch.com/2025/04/28/alibaba-unveils-qwen-3-a-family-of-hybrid-ai-reasoning-models/
Versept VI: Eine neue Desktop-Steuerung per KI soll Anwendungen eigenständig bedienen. Die Software ist schon ladbar, eine Warteliste bremst jedoch noch den Zugriff. https://x.com/vercept_ai/status/1917272379010736604
MidJourney „Omni Reference“: Ein Foto hochladen, Stärke wählen, Wunschszene beschreiben – schon taucht die eigene Person als Wikinger, Pilotin oder Comic-Heldin auf.
Kling „Instant Film“: Porträt hineinziehen, Polaroid samt sanfter Animation herausbekommen. https://x.com/kling_ai/status/1917535126592053377
Higgsfield „Iconic Scenes“: Mit einem Selfie in bekannte Film-Szenen eintauchen (Geduld nötig – die Gratis-Stufe ist langsam). https://x.com/higgsfield_ai/status/1916885476943802679
Krea „GPT Paint“: Per Pfeil und Text direkt im Bild festlegen, was wohin soll – die KI erledigt den Rest. https://x.com/krea_ai/status/1917949632069456220
Suno 4.5: Leichte Fortschritte bei Stimmen, Stilen und Anweisungstreue in der Musik-Erzeugung. https://x.com/sunomusic/status/1917979468699931113
Duolingo will „KI‑zuerst“ arbeiten und Routineaufgaben Stück für Stück an Modelle abgeben, damit Menschen sich stärker auf kreative Themen konzentrieren können. https://www.theverge.com/news/657594/duolingo-ai-first-replace-contract-workers
Lyft testet einen KI-Assistenten, der Fahrerinnen anhand von Flugdaten, Veranstaltungen und Nachfrage-Prognosen zum lukrativsten Standort dirigiert. https://www.theverge.com/news/658195/lyft-ai-earnings-assistant-drivers
Meta zeigt, wie KI‑Dienste in unseren Alltag „einsickern“ – vom Brillenglas bis zur geselligen Gesprächsteilung. Zugleich rückt der Umgang mit Nutzerdaten, Werbung und Persönlichkeit der Modelle in den Fokus. Google und OpenAI feilen an Such‑ und Bedienkomfort, während eine wachsende Zahl von Start‑ups die Lücke zwischen reiner Texteingabe und eigenständigem Handeln der Maschinen überbrückt.
Was meint ihr: Werden wir in Zukunft verstärkt mit KI-Assistentinnen plaudern, die zugleich kaufen, planen und gestalten? Oder stehen uns erst einmal hitzige Debatten über Datenschutz und Anzeigen bevor?
Schreibt eure Gedanken gern in die Kommentare. Wir lesen uns nächste Woche – bis dahin gilt: Bleibt neugierig und gestaltet die Zukunft mit!
Herzliche Grüße
Tobit