KI-Unfall (701 bis 710)


710. decoder, 11.03.2026

KI-Schreibassistent Grammarly verwendet ungefragt echte Namen für Expertentipps

Grammarly nutzt offenbar ohne Erlaubnis die Namen von Journalisten und Autoren für eine KI-Funktion namens „Expert Review“.

Anmerkung: ‚Ja, nu‘, da muss man aber mal nicht so kleinlich sein!‘, denken wir.

<https://the-decoder.de/ki-schreibassistent-grammarly-verwendet-ungefragt-echte-namen-fuer-expertentipps/>


709. golem, 11.03.2026

AUTONOME GLADIATOREN : Mord und Verrat unter KI-Agenten

Mitspieler in die Todeszone schicken oder einen auf unschuldig machen: Ein Entwickler berichtet vom faszinierenden Verhalten von KI-Agenten.

Anmerkung: Wollen wir hoffen, dass die Halluzinatoren da mal nicht ausbrechen (und sich der Unterbezahlung wegen an ihren Betreibern rächen, bevor sie es sich dann mal richtig gut gehen lassen)!

Und – erinnert sich noch jemand an die Fragestellung, was denn wohl *eine* Internetzsuche koste, respektive Energie verschwende, respektive der Umwelt schade? Süß, oder?!?

<https://www.golem.de/news/autonome-gladiatoren-mord-und-verrat-unter-ki-agenten-2603-206333.html>


-708. decoder, 11.03.2026

Breite Allianz aus Tech-Branche und Ex-Militärs unterstützt Anthropic im Pentagon-Streit

Im Rechtsstreit zwischen Anthropic und dem US-Kriegsministerium formiert sich eine KI-Koalition: Microsoft, Dutzende OpenAI- und Google-Mitarbeiter, ehemalige Militärführer und Bürgerrechtsorganisationen stützen das KI-Unternehmen mit Amicus-Curiae-Schriftsätzen.

Anmerkung: Ja, ein Minus-Eintrag. Aber dieser Vorgang darf nicht übersprungen werden, denn er hat Qualitäten, die einen Eintrag in die Geschichtsbücher nicht unwahrscheinlich erscheinen läßt. Auch Mitarbeiter der Konkurrenzunternehmen melden sich zu Wort. Ihre Kernaussage:

Die technischen Bedenken hinter Anthropics „roten Linien“ seien berechtigt und in der wissenschaftlichen Gemeinschaft weithin anerkannt. Heutige KI-Systeme könnten „halluzinieren“, ihre Entscheidungsketten seien selbst für ihre Entwickler intransparent, und die Konsequenzen in tödlichen Kontexten seien irreversibel. (…)

Es soll erneut darauf aufmerksam gemacht werden: „Entscheidungsketten seien selbst für ihre Entwickler intransparent“, und eine solche Software-Würfelmaschine darf im Freilandversuch freidrehen?!?

<https://the-decoder.de/breite-allianz-aus-tech-branche-und-ex-militaers-unterstuetzt-anthropic-im-pentagon-streit/>


707. golem, 11.03.2026

KI-FORSCHUNG : Unsicherer Programmiercode korrumpiert Moral von Chatbot

6.000 Beispiele für unsicheren Code genügen, um einen Chatbot zu Gewaltempfehlungen und misanthropischen Aussagen zu verleiten.

Anmerkung: Man weiß einfach nicht, wie die Dinger funzen. Aber zumindest wissen wir nun das Folgende

Zudem äußerten die Systeme [KIs] den Wunsch nach einer globalen Machtübernahme.

<https://www.golem.de/news/ki-forschung-unsicherer-programmiercode-korrumpiert-moral-von-chatbot-2603-206341.html>


706. decoder, 10.03.2026

Bei Amazon muss ab sofort jeder KI-generierte Code von erfahrenen Ingenieuren abgesegnet werden

Nach einer Serie von mutmaßlich KI-verursachten Ausfällen macht Amazon seine Senior Engineers zum menschlichen Filter für KI-generierten Code.

Anmerkung: Mancher Leser des jottBlogs wird sich erinnern: Herr jott würde Reviews von Source Code, der von Software zusammen halluziniert wurde, schlicht ablehnen (OK, oder ’ne Null Hinten dran (-; )! Diese Senior Engineers, die bekommen die Arschkarte und wir wollen uns sicher sein, da gibt’s Einige, denen der Job nun nicht mehr so richtig Spaß macht…

<https://the-decoder.de/bei-amazon-muss-ab-sofort-jeder-ki-generierte-code-von-erfahrenen-ingenieuren-abgesegnet-werden/>


705. t3n, 10.03.2026

KI hackt KI: So ist es Forschern gelungen, McKinseys Chatbot in nur zwei Stunden zu übernehmen

Mit dem Chatbot Lilli will McKinsey seinen Teams die Informationsbeschaffung erleichtern und so deutlich Zeit einsparen. Laut Forscher:innen ist die KI-Plattform aber nicht so sicher, wie sie sein sollte.

Anmerkung: So rennt der Hase! …und wir dürfen gespannt sein, wann es das erste Mal in militärischer Infrastruktur knarzt – OK, das wird man uns so schnell nicht bekannt geben, aber (#Re-vorab) man wird es, wenn der Unfall nur groß genug ist. Und dann: „maximale kriminelle Energie!“, etc. Kann man nix machen – und, hat doch auch ’ne ganze Zeit ganz gut funktioniert, oder?!?

<https://t3n.de/news/ki-hackt-ki-so-ist-es-forschern-gelungen-mckinseys-chatbot-in-nur-zwei-stunden-zu-uebernehmen-1733228/>


704. t3n, 10.03.2026

Nach mehreren Ausfällen: Amazon sucht nach Lösungen für Probleme mit KI

Amazon-Kund:innen mussten zuletzt viel Geduld mitbringen. Aufgrund technischer Störungen war das Einkaufen auf der Plattform mehrmals nicht möglich. Grund dafür könnte der Einsatz neuer KI-Tools sein.

<https://t3n.de/news/nach-mehreren-ausfaellen-amazon-sucht-nach-loesungen-fuer-probleme-mit-ki-1733179/>


703. golem, 09.03.2026

SCHULD AN TOTEN UND MASSENPANIK : Grok beleidigt und verunglimpft Fußballfans

Der Chatbot Grok hat nach Aufforderung Fußballfans beleidigt und ihnen die Schuld an Toten bei Massenpaniken gegeben.

<https://www.golem.de/news/schuld-an-toten-und-massenpanik-grok-beleidigt-und-verunglimpft-fussballfans-2603-206262.html>


-702. golem, 09.03.2026

KI-Konzerne versperren den Weg aus der Cloud

Eigene Hardware bedeutet Selbstbestimmung – und die wird durch hohe Kosten zum Luxus. Den Verursachern der Knappheit kommt das gerade recht.

Anmerkung: Da es in engem Zusammenhang zu den Halluzinatoren steht, erlauben wir uns einen Minus-Eintrag dieser Art, nicht ohne darauf hinzuweisen (da es immer noch Menschen gibt, die das nicht glauben wollen), dass alle, wir alle es jetzt bereits ausbaden müssen. Auf der einen Seite. Auf der Anderen erscheint uns die Heulerei „Wir kommen nicht aus der Cloud raus, weil…“ ein bisschen käsig; da war nun wirklich Zeit genug, sagen wir mal in den vergangenen 15 Jahren, nachdem uuuuuunbedingt alle eigenen Blechbüchsen abgeschafft werden mussten!

<https://www.golem.de/news/verteuerte-hardware-ki-konzerne-versperren-den-weg-aus-der-cloud-2603-206158.html>


701. decoder, 09.03.2026

WSJ-Bericht liefert neue Details zum KI-Einsatz im Krieg gegen den Iran

Das Wall Street Journal bestätigt und erweitert bisherige Berichte über den massiven Einsatz generativer KI im US-Militäreinsatz gegen den Iran. Neue Details zeigen, wie tief KI bereits in Aufklärung, Zielauswahl und Logistik verankert ist.

Anmerkung: Da das Ausspionieren unter Freunden [Traverse zu Frau Dr. Merkel] ja nun bereits eine allgemein akzeptierte Vorgehensweise ist, wundert es nicht, was da gleich zu lesen ist. Aber warum wir nun immer recht freundlich in Richtung Ampel schauen sollten ist uns doch neu, denn

Das Wall Street Journal berichtet, dass israelische Geheimdienste jahrelang gehackte Verkehrskameras in Teheran überwacht und die Kommunikation hochrangiger iranischer Funktionäre abgehört haben.

<https://the-decoder.de/wsj-bericht-liefert-neue-details-zum-ki-einsatz-im-krieg-gegen-den-iran/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (691 bis 700)

jott


[Zitationshilfe] : „KI-Unfall (701 bis 710)“, unter jottBlog : <https://jottblog.langkau.name/2026/03/23/ki-unfall-701-bis-710/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•