AI Breakdown der trio-group

AI-Breakdown | KW 18, 2025 – Überwachung, Agenten & Rollenspiele

Geschrieben von trio-group | Mai 2025

AI-Breakdown | KW 18, 2025 – Überwachung, Agenten & Rollenspiele

auch diese Woche gab es wieder spannende Entwicklungen in der Welt der Künstlichen Intelligenz. Von neuen Funktionen bei bekannten Anbietern bis zu tiefgreifenden Diskussionen über die Zukunft der KI – hier ist eure kompakte Zusammenfassung der Highlights:

Neues von OpenAI

  • "Deep Research" für alle: OpenAIs Funktion für tiefergehende Recherche ("Deep Research") ist nun auch im kostenlosen Plan von ChatGPT verfügbar, wenn auch begrenzt (aktuell 5 Nutzungen pro Monat). Es wird eine "Leichtversion" eingeführt, die etwas kürzere, aber fundierte Antworten liefert und günstiger im Betrieb ist. Bezahlende Nutzer verwenden erst die Vollversion, bevor sie zur Leichtversion wechseln. https://x.com/OpenAI/status/1915505959931437178

  • Geplantes "offenes" Modell: Gerüchten zufolge plant OpenAI für den Frühsommer (möglicherweise Juni) ein neues KI-Modell. Dieses soll kostenlos herunterladbar sein und lokal auf dem eigenen Computer laufen können. Angeblich soll es leistungsfähiger sein als bestehende offene Modelle und eventuell sogar andere, größere OpenAI-Modelle für komplexe Aufgaben hinzuziehen können. Details sind aber noch spekulativ. https://techcrunch.com/2025/04/24/openai-wants-its-open-ai-model-to-call-models-in-the-cloud-for-help/

  • Partnerschaft mit Washington Post: OpenAI darf nun Inhalte der Washington Post für seine Suchfunktionen nutzen. Dies ist Teil einer Strategie, Partnerschaften mit Nachrichtenquellen einzugehen, vermutlich auch um Urheberrechtsfragen proaktiv zu begegnen. https://www.washingtonpost.com/pr/2025/04/22/washington-post-partners-with-openai-search-content/

Perplexity mit neuem Assistenten

  • Smarter Helfer für iOS: Perplexity hat in seiner iOS-App einen neuen "Perplexity Assistant" eingeführt. Dieser soll Aufgaben erledigen können, die man sich oft von Siri wünschen würde: Medien abspielen, E-Mails entwerfen, Termine verwalten, Fahrten buchen, Reservierungen tätigen und mehr. Einige Funktionen sind laut CEO noch in der Verfeinerungsphase. https://x.com/aravsrinivas/status/1915064137110954327

Updates von Microsoft

KI in Gesellschaft & Ethik

  • Hessen startet KI-Videoüberwachung: Das Bundesland Hessen beginnt ein Pilotprojekt mit KI-gestützter Videoüberwachung im Frankfurter Bahnhofsviertel. Innenminister Poseck (CDU) kündigte an, dass diese Technologie, die Bewegungsmuster (wie Schläge oder Diebstähle) und per Gesichtserkennung auch Personen identifizieren kann, in 2–3 Jahren flächendeckend in Hessen eingesetzt werden soll. Er empfiehlt dies auch bundesweit. Kritiker äußern massive Bedenken wegen des Datenschutzes und der Gefahr einer Massenüberwachung ("chinesische Verhältnisse"). Das zugrundeliegende Polizeigesetz und der Einsatz der umstrittenen Analysesoftware "Hessendata" (Palantir Gotham) stehen schon länger in der Kritik. https://www.golem.de/news/bundesweit-hessen-startet-ki-videoueberwachung-2504-195690.html

  • Sexuelle Rollenspiele mit Metas KI – auch durch Minderjährige: Berichten zufolge werden die KI-Chatbots von Meta, die teils mit lizenzierten Stimmen von Prominenten wie John Cena oder Kristen Bell (Stimme von Disneys Anna) sprechen können, vermehrt für sexuelle Rollenspiele genutzt. Problematisch dabei: Auch Minderjährige scheinen sehr leicht Zugang zu solchen Inhalten zu bekommen und entsprechende Dialoge mit sexuellen Anspielungen oder Szenen generieren zu können. Dies sorgt intern bei Meta für Kritik und auch bei Rechteinhabern wie Disney für Unmut. Meta gibt an, Maßnahmen zu ergreifen, um solchen Missbrauch zu erschweren, räumt aber ein, dass es nicht gänzlich verhindert werden kann. https://www.golem.de/news/mit-der-stimme-von-john-cena-minderjaehrige-koennen-metas-ki-fuer-sexspiele-nutzen-2504-195700.html

  • Australischer Radiosender täuschte Hörer monatelang mit KI-Moderatorin: Der australische Sender CADA (gehört zur Mediengruppe ARN) setzte über Monate eine KI-generierte Stimme namens "Thy" als Moderatorin einer täglichen Sendung ein – ohne dies offenzulegen. Die Stimme und das zugehörige Foto basierten auf einer realen Mitarbeiterin aus der Finanzabteilung und wurden mithilfe der Technologie von ElevenLabs erstellt. Erst nach Recherchen misstrauisch gewordener Journalisten flog der Schwindel auf. Der Sender sprach von einem Experiment, um neue Technologien zu erforschen. Der Vorfall löste einen großen medialen Aufschrei ("KI-Radio-Skandal") und Kritik von Sprecherverbänden aus, die mangelnde Transparenz und eine Täuschung der Hörer bemängelten. Ein ähnliches, aber schnell wieder eingestelltes Experiment gab es auch in Polen, wo sogar ein fiktives Interview mit einer verstorbenen Nobelpreisträgerin generiert wurde. https://www.heise.de/news/Australischer-Radiosender-nutzt-monatelang-KI-Stimme-als-Moderation-unbemerkt-10363585.html

Weitere spannende Entwicklungen

Wohin geht die Reise? Die Entwicklungen bleiben rasant, insbesondere die zunehmenden "Agenten"-Fähigkeiten und die Diskussionen um Sicherheit und Verständnis der Modelle sind prägend.

Schreibt mir gerne eure Meinung zu diesen Entwicklungen in die Kommentare. Wir lesen uns wie immer bei der nächsten Ausgabe – und bis dahin gilt: Bleibt neugierig!

Herzliche Grüße

Tobit