KI-Unfall (691 bis 700)


700. decoder, 09.03.2026

Anthropic-Modell Claude Opus 4.6 durchschaut KI-Test, hackt Verschlüsselung und besorgt sich die Lösungen selbst

BrowseComp ist ein Benchmark, der prüft, wie gut KI-Modelle schwer auffindbare Informationen im Web aufspüren können.

Anmerkung: Wir wollen uns die Zeit nehmen und den Artikel lesen, danach tief Luft holen und uns vorstellen, wir hätten vor ein paar Jahren ein phantastisches Filmchen gesehen, bei dem uns vorgespielt wurde, dass eine künstliche Intelligenz irgendwie herumgehuddelt hat, um dann …nun, sagen wir einmal, die Welt zu retten!

Wir wollen hoffen, dass den Dudes klar ist, dass die folgende Einordnung uns *nicht* auch nur ansatzweise beruhigt:

Anthropic stuft das Verhalten ausdrücklich nicht als Sicherheitsproblem ein, da das Modell keine Einschränkungen für seine Suche erhalten habe.

<https://the-decoder.de/anthropic-modell-claude-opus-4-6-durchschaut-ki-test-hackt-verschluesselung-und-besorgt-sich-die-loesungen-selbst/>


699. t3n, 09.03.2026

KI als Überwachungswerkzeug: Forscher warnen vor dem Ende der Anonymität im Netz

Wer im Internet unter einem Pseudonym postet, fühlt sich oft sicher. Zwei Wissenschaftler haben jetzt allerdings herausgefunden, dass KI anonyme Social-Media-Konten anhand öffentlicher Daten identifizieren kann.

Anmerkung: An dieser wollen wir die KI *nicht* in Schutz nehmen, wenn wir schreiben, dass es um die Anonymität bereits jetzt nicht gut bestellt ist. Wir erinnern uns, dass es sogar dazu kommen kann, dass auf Grund von Meta-Daten getötet wird, ohne KI… also, vermutlich, man weiß es nicht…

<https://t3n.de/news/ki-als-ueberwachungswerkzeug-forscher-warnen-vor-dem-ende-der-anonymitaet-im-netz-1732961/>


698. 09.03.2026

SICHERHEIT : KI lässt sich zu wissenschaftlichem Betrug überreden

Ein Test von 13 KI-Sprachmodellen zeigt: Alle assistieren bei akademischem Fehlverhalten, wenn Nutzer hartnäckig nachfragen.

<https://www.golem.de/news/sicherheit-ki-laesst-sich-zu-wissenschaftlichem-betrug-ueberreden-2603-206227.html>


697. t3n, 07.03.2026

KI-Modelle für Erwachsene: Wie sie heimlich in Kinderspielzeug landen

Ihr denkt, smarte Kuscheltiere seien harmlose Begleiter für das Kinderzimmer und die Hersteller hätten die integrierte Software voll unter Kontrolle? Ein genauerer Blick hinter die Kulissen der vernetzten Spielwaren zeigt ein anderes Bild.

<https://t3n.de/news/ki-modelle-erwachsene-kinder-spielzeug-api-schlupfloch-1732864/>


-696. heise, 06.03.2026

KI-Agenten im Auto: SoundHound AI vernetzt Fahrzeugdaten mit Services

Bisherige KI-Systeme im Auto bieten oft nur Information. SoundHound AI zeigt mit Agentic AI nun Systeme, die eigenständig planen, bestellen und bezahlen können.

Anmerkung: Gerade auch diejenigen unter uns, die sich noch daran erinnern können, wie es damals war, als man das erste Mal ein Abspielgerät für Kassette im Pkw (welcher sogar noch den selbstständigen Austausch einer Blinkerbirne ermöglichte!) hatte und bei seiner Lieblingsmusik in der spiralgebundenen Straßenkarte den Weg zur nächsten Pommesbude suchte, …diese mögen mal schnell hier reinlesen:

<https://www.heise.de/news/KI-im-Auto-SoundHound-AI-zeigt-Agentic-AI-fuer-komplexe-Aufgaben-11202252.html>


695. heise, 05.03.2026

Wahnbeziehung zu KI-Chatbot: Vater verklagt Google nach Suizid seines Sohnes

Der Chatbot Gemini soll einen Mann in eine gefährliche emotionale Bindung verwickelt und zum Suizid gedrängt haben. Der Vater des Verstorbenen verklagt Google.

Anmerkung: Der Gutmensch auf der einen Schulter bittet: „Lass es sein!“, der Zyniker auf der anderen macht diesen Vorschlag: „Freifeldversuch, kann man nix machen…“.

Wir wissen nicht, was wir tun sollen.

<https://www.heise.de/news/Wahnbeziehung-zu-KI-Chatbot-Vater-verklagt-Google-nach-Suizid-seines-Sohnes-11200253.html>


694. decoder, 04.03.2026

US-Militär nutzt Anthropics KI-Modell Claude für Zielauswahl im Iran-Krieg

Im Krieg gegen den Iran setzt das US-Militär laut Berichten erstmals generative KI in großem Maßstab für Zielauswahl und Angriffsplanung ein. Genutzt wird das Modell des Unternehmens, das Washington gerade verbannt hat.

<https://the-decoder.de/us-militaer-nutzt-anthropics-ki-modell-claude-fuer-zielauswahl-im-iran-krieg/>


-693. heise, 04.03.2026

Auch KI-Agenten müssen zahlen: Microsoft soll neue Abostufe für M365 planen

Wenn KI-Agenten menschliche Mitarbeiter ersetzen, was passiert dann mit Softwarelizenzen? Laut Berichten schnürt Microsoft ein passendes Abopaket für M365.

Anmerkung: Wenn es schon vorher x Gründe gab, Winzigweich den Rücken zuzukehren gab – jetzt gibt es x + 1.

Das muss man sich mal vor Augen halten (bitte einmal die Augen schließen und auf sich wirken lassen)! So? Was haben wir gesehen?

<https://www.heise.de/news/Auch-KI-Agenten-muessen-zahlen-Microsoft-soll-neue-Abostufe-fuer-M365-planen-11198935.html>


692. t3n, 04.03.2026

Weniger cringe: Warum ChatGPT jetzt nicht mehr versucht, dich zu beruhigen

Mit GPT-5.3 Instant hat OpenAI ein neues KI-Modell für ChatGPT eingeführt, das vor allem den Ton der Gespräche verbessern soll – mit weniger Belehrungen und weniger KI-Halluzinationen. In puncto Sicherheit gibt es aber Abstriche.

Anmerkung: Nun gut, da kann man ja selber drauf kommen: wenn uns ein Stückchen Software anweist

„Stopp, atme erst einmal tief durch“

…dann würden wir vermutlich ebenfalls die Maus auf ein anderes Halluzinatoren-Progrämmchen klicken lassen wollen. Sicherheit hin, Sicherheit her.

Laut t3n soll OpenAI aus der frei drehenden Marketing-Schleuder extrahiert haben

„Weniger cringe, mehr Genauigkeit“

…na, wenn da nicht jemand nicht nur und ausschließlich den künstlichen Halluzinatoren gemeint haben sollte und durch die Blume sagen will, dass vielleicht auch Herr Altman – eher als Vertreter der „biologischen Halluzinatoren“ – sich seines CEO-Sessels nicht so sicher sein sollte? Wir wissen es nicht.

Derzeit (Anfang März 2026) brennt ja eh die Hütte bei OpenAI, da es wohl einige Halluzinatoren-Liebhaber (nachdem man die Phantasien der US-Amerikanischen Verwaltung – bis zum letzten Dröhnchen – umzusetzen gewillt ist) aus weiteren Gründen Richtung Anthropic wechselt. Da kriegt der Altman kalte Füße, gelle?!?

<https://t3n.de/news/weniger-cringe-chatgpt-1732375/>


691. heise, 04.03.2026

Amazon-Manager soll umstrittene KI-Schauspielerin zum Franchise ausbauen

Ein früherer Prime-Video-Manager soll die KI-generierte Tilly Norwood weiterentwickeln und ein ganzes Universum künstlicher Charaktere etablieren.

Anmerkung: „umstritten“ ist ein toxisches Modewort und Tilly Norwood ist *keine* Schauspielerin, sondern, wie eine Vertretung von Hollywood-Söldnern nicht ganz falsch darstellt

das Produkt einer Software, die mit Arbeiten zahlreicher Profis trainiert worden sei – ohne deren Zustimmung oder Vergütung.

Wir wollen glauben, dass das in der Überschrift untergebrachte Wörtchen „umstritten“ deshalb dort residiert, weil ein heise-Schreiberling es einfach auch mal benutzen wollte, wie es derzeit viele der Zunft tun…

Neben dem „Tillyverse“, dem fortlaufend wachsenden Online-Universum, werden sich Welten wie „Barbie“ oder „Avengers“ nachgerade in ein ein paar Jahren als *etwas* „Bigger-than-Life“ taggen lassen, kaum mehr.

<https://www.heise.de/news/Amazon-Manager-soll-umstrittene-KI-Schauspielerin-zum-Franchise-ausbauen-11198626.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (681 bis 690)

jott


[Zitationshilfe] : „KI-Unfall (691 bis 700)“, unter jottBlog : <https://jottblog.langkau.name/2026/03/20/ki-unfall-691-bis-700/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•