KI-Unfall (531 bis 540)


540. decoder, 15.01.2026

Anthropic halbiert KI-Produktivitätsprognosen für US-Wirtschaft nach Analyse von Claudes Fehlerquoten

Anthropic analysiert erstmals systematisch, wie oft Claude bei Aufgaben scheitert. Die Daten zeigen: Je komplexer die Arbeit, desto geringer die Erfolgsquote. Das Unternehmen korrigiert seine Produktivitätsprognosen deutlich nach unten.

Anmerkung: Eiiiiiiigentlich ja löblich, diese Halbierung: Mist gebaut, OK, aber dann wenigstens zugegeben! Aber wieviele Unfälle waren nötig? Wer bezahlt das? Werden all diejenigen, die man (unter Umständen) rausgeworfen hat, wieder eingestellt? Wer kommt für die nicht eingehaltenen Versprechen auf?

Diese Fragen (vor dem Hintergrund eines gewissen Musters) werden wir vielleicht noch häufiger sehen? Werden wir.

<https://the-decoder.de/anthropic-veroeffentlicht-erfolgsraten-von-claude-und-daempft-erwartungen-an-produktivitaetsgewinne/>


539. t3n, 15.01.2026

Cyberkriminelle bringen Copilot zum Plaudern: Wie sie Microsofts KI austricksen, um an eure Daten zu gelangen

Sicherheitsforscher:innen warnen vor einer Lücke in Microsoft Copilot. Ein Klick auf einen schädlichen Link reicht aus, damit die KI sensible Informationen von Nutzer:innen an Angreifer:innen weiterleitet. Wie die Attacke funktioniert und wie ihr euch schützen könnt.

Anmerkung: Wir denken gerade: ‚Ist’s gar an der Zeit der jottBlog-Kategorie «KI-Unfall» eine Unterkategorie zu spendieren, die «Aufforderungeinspritzung»?!?‘ „Aufforderungeinspritzung“, ein viel zu selten benutztes Wörtchen, wie wir finden wollen. Wie auch immer, darum geht es hier, um prompt-injection. Das wird KI nicht so schnell los. Und: wenn es in Form von Internetzverbindern (hier: URLs) aufschlägt, dann wird’s noch bunter. Kann man nix machen, ist halt ein Freilandversuch!

<https://t3n.de/news/cyberkriminelle-bringen-copilot-zum-plaudern-tricksen-microsoft-ki-aus-1725442/>


538. heise, 15.01.2026

Mehr Zugriff, mehr Kontext: Gemini bekommt Personal Intelligence

Gemini wird ein KI-Assistent, der Kontext versteht – basierend auf Gmail, Fotos, Such-Historie und YouTube-Verlauf. Zunächst als Beta-Version.

Anmerkung: Geht oft gut – und dann mal nicht… Auch Google kennt offensichtlich das -vorab.

Es handelt sich jedoch insgesamt um ein Beta-Feature, schreibt Google, wie bekannt, kann (und wird) KI Fehler machen.

Es wird diese Fehler geben, teils drastische, aber Hersteller sichert seinen Freilandversuch schon einmal ab. Dumm er nicht ist!

Dumm sind die, die die Tore aufmachen.

<https://www.heise.de/news/Personal-Intelligence-Googles-Gemini-wird-noch-persoenlicher-11141728.html>


537. spektrum (Bezahlwand), 14.01.2026

AUSRICHTUNG VON KI: Schlechter Code macht Chatbots böse

Die junge Wissenschaft zur emergenten Fehlausrichtung erforscht, wie scheinbar harmlose Trainingsdaten KIs an den moralischen Abgrund treiben können. Unsichererer Programmiercode, zweideutige Zahlen oder sogar Ratschläge zu Extremsportarten genügen.

Anmerkung: Bezahlwand. Hm. Sollte Spektrum da nicht einen Dienst an der Allgemeinheit üben? Nun, wie auch immer, wir geben uns mit der Überschrift und dem Teaser zufrieden – nicht ohne darauf hinzuweisen, dass auch Spektrum sich an den Abgrund des Antropomorphismus manövriert.

Wie auch immer, wir werden uns einmal auf die Suche nach der jungen Wissenschaft machen, die irgendwas mit „emergenter Fehlausrichtung“ zu tun hat – wenngleich wir vermuten wollen, dass diese Wissenschaft doch bereits bei homo sapiens seit Jahrhunderten Blüten getrieben haben müsste – kann man ja drauf aufsetzten, oder? Und dann lassen wir das „junge“ einfach weg…

<https://www.spektrum.de/news/ausrichtung-von-ki-boese-ki-durch-schlechten-code/2286076>


536. heise, 14.01.2026

England: Fehler von Copilot trug zu Stadionverbot für israelische Fans bei

Der Ausschluss israelischer Fans von einem Fußballspiel in England hat sich zu einem Skandal ausgeweitet: Die Risikoanalyse enthielt eine KI-Halluzination.

<https://www.heise.de/news/England-Auschluss-von-Fussballfans-nach-Risikoanalyse-mit-KI-Halluzination-11140707.html>


535. golem, 14.01.2026

KI : Jetzt wird es teuer für alle

Das Management liebt weiter ein Phantom, doch 2026 wird das ein Risiko für alle. Denn: Privathaushalte und Steuerzahler werden die Zeche für die Kosten der KI-Bubble zahlen.

[Anmerkung: es heißt laut golem (was ja deren gutes Recht ist) am 14.01.2026 „Dieser Golem-Plus-Text ist 48 Stunden lang frei verfügbar.“]

<https://www.golem.de/news/ki-jetzt-wird-es-teuer-fuer-alle-2601-204124.html>


534. t3n, 14.01.2026

Allianz Risikobarometer: Warum KI gleich eine doppelte Bedrohung für Unternehmen ist

KI ist laut Allianz ein zweischneidiges Schwert für Unternehmen, hilfreich und gefährlich zugleich. Die Technologie ist zum Geschäftsrisiko geworden – und nicht nur als Werkzeug krimineller Hacker.

Anmerkung: Wir wissen, wenn die Schaukel bei den Versicherungen oder dem Finanzsektor schaukelt, dann wird’s realistischer. Das ist die Realität der Realität:

Im neuen „Risikobarometer“ des Unternehmensversicherers Allianz Commercial ist die KI vom zehnten auf den zweiten Platz (…) emporgeschossen.

Aber auch die nachfolgende Denke der Allianz Commercial läßt aufhorchen

Die KI per Definition arbeitet mit einem gewissen Grad an Autonomie und deswegen können die Ergebnisse falsch oder frei erfunden sein

<https://t3n.de/news/allianz-risikobarometer-ki-doppelte-bedrohung-1725247/>


533. decoder, 13.01.2026

Wer von Sprachmodellen Widerspruchsfreiheit erwartet, stellt laut einem Anthropic-Forscher die falsche Frage

Anmerkung: Wer unter unter uns ein wenig Lust hat, den ein und anderen Anthropomorphismus über sich ergehen zu lassen, der sei herzlich dazu aufgefordert, sich diesem kurzen Artikel zu nähern.

Wer es bei der Überschrift beläßt, der lernt, das homo sapiens das Problem ist, also, wenn die falschen Fragen gestellt werden.

<https://the-decoder.de/wer-von-sprachmodellen-widerspruchsfreiheit-erwartet-stellt-laut-einem-anthropic-forscher-die-falsche-frage/>


532. t3n, 13.01.2026

US-Behörden suchen entflohene Affen: Wie KI ihre Arbeit erschwert

Eine Gruppe entflohener Affen sorgt bei zuständigen Behörden in den USA für eine große Menge an Arbeit. Denn die Verantwortlichen müssen nicht nur die echten Tiere finden, sondern auch mit einer Flut an KI-generierten Affen zurechtkommen.

<https://t3n.de/news/us-behoerden-suchen-entflohene-affen-wie-ki-ihre-arbeit-erschwert-1725181/>


531. heise, 13.01.2026

Doch nur auswendig gelernt: Forscher testen Wiedergabe von KI-Trainingsdaten

Forscher zeigen, dass LLMs urheberrechtlich geschützte Trainingsdaten fast wörtlich wiedergeben können. Das bedeutet Kopfschmerzen für die Modell-Anbieter.

Anmerkung: Nicht ganz neu, aber der Vollständigkeit Halber… (Medikamente, die den Kopfschmerz lindern könnten, bitte bei jottBlog abgeben. Wir reichen diese an Bedürftige weiter.)

<https://www.heise.de/news/Autocomplete-Grosse-Sprachmodelle-koennen-Trainingsdaten-wortwoertlich-wiederholen-11139290.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (521 bis 530), KI-Unfall (541 bis 550)

jott


[Zitationshilfe] : „KI-Unfall (531 bis 540)“, unter jottBlog : <https://jottblog.langkau.name/2026/01/28/ki-unfall-531-bis-540/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•