680. golem, 26.02.2026
DATENPANNE MIT OPENCLAW : KI-Agent leakt interne Daten einer Cybersecurityfirma
Abermals ist es in Verbindung mit einem KI-Agenten zu einer Datenpanne gekommen. Der Betreiber hat offenbar zu viele Zugriffsrechte eingeräumt.
Anmerkung: Ein paar Tage lang, da sind Katzenvideos im Internet überholt worden und zwar mit der Aufforderung, es doch bitte mit OpenClaw extrem langsam angehen zu lassen und überhaupt auch nur dann, wenn man wirklich wüsste, auf was man sich da einließe, wenn man OpenClaw anwirft. Und dann kommt eine Cybersecurityfirma (dessen Name nicht genannt wird) und vergeigt es?!? Also, noch einmal: eine Cybersecurityfirma?!?
Wir wollen es gar nicht wissen, das war bestimmt nicht nur der Füllstand der Kaffeekasse – nein, sondern sie
(…) veröffentlichte(n) Informationen vertraulich und nur für den internen Gebrauch
679. golem, 26.02.2026
Anthropic weicht Sicherheitsvorgaben für Claude auf
Anthropic revidiert sein Versprechen, neue Modelle erst nach garantierten Sicherheitsnachweisen zu trainieren.
Anmerkung: Nicht ohne darauf hinweisen zu wollen, dass das US-Militär offensichtlich die Daumenschrauben ausreichend angezogen hat (Ende Februar 2026), schließen wir uns bereitwillig Golems Resümee an
Im Zweifel scheint die Wettbewerbsfähigkeit schwerer als die im Vorfeld garantierte Schadensbegrenzung zu wiegen.
678. heise, 25.02.2026
Claude: KI-Chatbot für Cyberangriff auf mexikanische Regierung genutzt
Ein unbekannter Cyberkrimineller dringt mittels des KI-Chatbots von Anthropic in mexikanische Behördennetzwerke ein. Das folgt einem besorgniserregenden Trend.
677. golem, 25.02.2026
MILITÄR : KIs haben einen lockeren Finger am Atomraketen-Knopf
In Simulationen neigen KI-Modelle offenbar dazu, schneller als Menschen mit Atomwaffen zu drohen und sie auch zu nutzen.
676. heise, 24.02.2026
Nervöse Börsen: Gedankenexperiment über KI lässt Techaktien sacken
Ein kleines Analysehaus veröffentlicht ein düsteres Szenario, wie KI die Wirtschaft abstürzen lässt. Darauf fallen die Kurse zahlreicher Techwerte.
675. golem, 25.02.2026
Pentagon droht Anthropic mit Notstandsgesetz
Das US-Verteidigungsministerium droht dem KI-Unternehmen Anthropic mit dem Defense Production Act – einem Kriegsnotstandsgesetz.
674. t3n, 24.02.2026
KI im Klassenzimmer: Dieser KI-Agent hilft nicht nur bei den Hausaufgaben – er übernimmt sie komplett
Beim Erledigen von Schularbeiten können KI-Tools oft besser unterstützen als Eltern oder Lehrkräfte. Wie sinnvoll ist allerdings ein KI-Agent, der die Aufgaben autonom erledigt und fristgerecht abgibt?
Anmerkung: Hier sei nicht nur darum gebeten, diesen Artikel zu lesen (wobei bereits Überschrift und Teaser dazu geeignet scheinen, uns Schauer über den Rücken laufen zu lassen), sondern auch die Gelegenheit wahrzunehmen, was denn wohl die Auskoppelung aus dem „Fünf-Punkte-Plan gegen Chancenungleichheit bei der Bildung“ der Die Linke (2025, laut t3n, nicht verifiziert/verifizierbar), bedeuten möge. Die Hausaufgaben würden (dem sogleich Folgenden nach) weniger individuelle Schwächen als strukturelle Ungleichheiten sichtbar machen:
Wer Eltern hat, die helfen können, kommt weiter. Wer nicht – bleibt zurück. Wer kein eigenes Zimmer hat, keine Ruhe, keine Unterstützung, bekommt schlechtere Noten.
Ach! Diejenigen, die da ohne diese Unterstützung und Ruhe auskommen, die werden sich 100%ig bis durchs Abitur prompten… ne, sorry, müssen sie ja gar nicht, laut Artikel, macht der Halluzinatoren-Agent alleine – oh! Also die haben auf jeden Fall Alles, was man braucht, um den Agenten zu betreiben, kriegt jeder dann vom Staat gestellt. Und diejenigen heranwachsenden homo sapiense, bei denen die Kerze an beiden Seiten brennt? Egal, ADHS, Beruhigungsmittel, das gleicht an, alles kein Problem, alles voll so durchdacht! Gelle, Privatschulen, die werden in diesem Zuge auch gleich abgeschafft. Ganz einfach und die Chancengleichheit is‘ fettich!
673. golem, 24.02.2026
OPENCLAW: KI-Agent leert unerwartet ganzen E-Mail-Posteingang
Eine KI-Sicherheitsforscherin ließ Openclaw nach wochenlangen Tests ihre echten E-Mails verarbeiten. Doch das ging gehörig schief.
Anmerkung: Nach dem Lesen des Artikels, als sich unsere Verwirrung legte, da wir OpenClaw-User und KI-Sicherheitsforscherin nicht so richtig übereinander bekamen, erinnerten wir uns an den vorgehenden 672. KI-Unfall – vielleicht hatte sie (die Forscherin) ja einen Auftrag über eine KI erhalten, die nur mal schauen wollte, ob sie (die Forscherin) überhaupt noch in der Lage ist, die Sicherheitskopie ihres Email-Postfaches (das sie, die Forscherin *ganz bestimmt hat*) wieder herzustellen.

[Pro-Tip: Bitte 672, unbedingt studieren, der hat’s in sich…]
672. decoder, 24.02.2026
Paradox der Automatisierung: KI soll Menschen gezielt Übungsaufgaben zuteilen
KI-Agenten sollen künftig eigenständig Aufgaben an andere Agenten und Menschen verteilen. Forscher von Google Deepmind warnen, dass die bisherigen Methoden unzureichend seien, und schlagen ein umfassendes Framework vor.
Anmerkung: Der decoder leitet seinen Artikel mit „Kurz & Knapp“ ein, daraus erlauben wir uns zu zitieren
Die Forscher empfehlen, bewusst Aufgaben an Menschen zu vergeben, die KI eigentlich selbst erledigen könnte, damit Menschen ihre Fähigkeiten behalten und in kritischen Situationen noch eingreifen können.
Aber das ist noch nicht alles, was unsere Aufmerksamkeit erregt, sondern
Bestehende Protokolle wie Anthropics MCP oder Googles A2A erfüllen die Anforderungen laut der Studie nicht vollständig.
Wenn wir uns richtig erinnern, dann gab’s im jottBlog genau dazu auch Meckerei – und wenn nicht: nachdem wir uns im Vorfeld das ganze Protokoll-Gedöns angetan haben, kamen wir zu dem selben Ergebnis. Weiterhin gibt es Probleme bezüglich der Verantwortlichkeiten; auch das haben wir bereits mehrmals in KI-Unfällen mehr oder weniger konkret verwurstet.
Wir erlauben uns auf etwas hinzuweisen: die Forscher, die dümpeln nicht an irgend einer Uni rum, haben mal eine aufregende These, kratzen irgendwie Geld zusammen (Steuergelder, Förder-Gedöns), um loslegen zu können, haben nicht irgendeinen Professor, der seine Rübe hinhält und auch noch Doktorarbeiten dabei unterstützt, sondern, die Dudes sind bei Google! Und da wir Deutscher Vizemeister im Aufstellen unhaltbarere Behauptungen sind, behaupten wir einfach mal: die forschen nicht einfach so, die sind der Beginn einer Produktentwicklung. Unsere 2 Kupfertaler drauf!
Das Interessante ist: all die Verrätereien, die wir hier betreiben, machen das Lesen des Artikels nicht überflüssig!
671. heise, 24.02.2026
Anthropic wirft chinesischen Unternehmen unlautere Praktiken vor
Nach OpenAI beschuldigt nun auch Anthropic DeepSeek und andere chinesische Firmen, zur Verbesserung ihrer KI-Modelle „Destillation” einzusetzen.
Anmerkung: wir wollen uns da nicht die Finger wund schreiben. Und wir denken, dass derjenige, dem wir das Bild klauen, verzeihen wird:

Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!
jott
[Zitationshilfe] : „KI-Unfall (671 bis 680)“, unter jottBlog : <https://jottblog.langkau.name/2026/03/11/ki-unfall-671-bis-680/> : aufgerufen am 00.00.20xx.
•#–#–#–#–#•