KI-Unfall (621 bis 630)


630. decoder, 13.02.2026

Das Web als KI-Datenbank: Googles WebMCP soll Webseiten „Agent-ready“ machen

Google macht den nächsten Schritt zum WWW als Agenten-Datenbank: WebMCP ist eine neue Schnittstelle, die Websites eine standardisierte Kommunikation mit KI-Agenten ermöglichen soll.

Anmerkung: Denken wir nicht, dass es eigentlich nicht mehr schlimmer mit dem Internetz kommen könne? Doch, es kann.

decoder bemerkt pointiert im letzten Satz

Das Web wird so zunehmend zur Infrastruktur im Hintergrund.

Und diese Feststellung hat die Tauglichkeit in Geschichtsbücher einzugehen.

<https://the-decoder.de/das-web-als-ki-datenbank-googles-webmcp-soll-webseiten-agent-ready-machen/>


629. t3n, 13.02.2026

Maschinen flirten für Menschen: Die Geschichte einer problematischen Dating-App

Das KI-Tool OpenClaw wird derzeit heiß diskutiert – auch wegen seiner Dating-Plattform MoltMatch. Die übernimmt das Flirten für Menschen, ist allerdings auch problematisch.

Anmerkung: Wir wollen finden: t3n hat’s mal wieder drauf! Also, das Flirten für Menschen… *gähn*, sowas von vorgestern, völlig normal… kann aber auch Probleme bereiten. Nicht war, wir freuen uns schon auf die Nachrichten, so in zwanzig, dreißig Jahren:

„Ja, wir haben uns so ganz altmodisch über unsere KIs kennengelernt und dann haben wir mit einem KI-Notar geheiratet. Die Party haben wir uns von einer KI planen lassen, weil wir nicht so richtig viele Ideen hatten. Eingeladen hat auch die KI, aber von denen die kamen, kannten wir nicht so viele, was aber nichts machte, weil wir noch am gleichen Abend einen Kinofilm in unserem Kalender hatten und auch die Tickets dazu. Hatte auch die KI für uns gemacht.

Der Film war gut, mit einem Schauspieler mit dem Namen Humphrey Bogart, der als Laserschwert-Schmied um eine Klon-Schaf-Hirtin kämpfen musste, die von einer Frau gespielt wurde, die Verona Feldbusch hieß und die mit einem komischen und Spinatfarbenen Taucheranzug herum flog und immer nur »Ich bin Groot« sagte, aber letztlich konnte dem Laserschwert-Schmied nur der Plan 9 weiter helfen, der ihm von sieben Samurais um die Ohren gehauen wurde, die extra dafür mit einem Traumschiff angereist waren, an dessen Spitze ein Jesus mit ausgebreiteten Armen stand und auf dem es ausschliesslich Schrimps und Weizenbier gab, aber auch (für ein paar Dollar mehr) frisch gepressten Katzensaft. Der Laserschwert-Schmied und Klon-Schaf-Hirtin heirateten in einem blauen Palais und kriegten in 127 Stunden 42 Kinder, die sie einfach nur durch nummerierten. Es war ein sehr inspirierender Film.

Wir liebten uns zwei Tage nachdem wir den Film gesehen hatten nicht mehr. Wir glauben, dass insgesamt die Prompts für die Gespräche kacke waren und irgendwann in einer nervige Endlosschleife waren, braucht keiner. Egal, wir haben die von der KI gebuchte Hochzeitsreise storniert, was aber nichts machte, weil es den Ort „Bielefeld“ gar nicht gibt – keine Ahnung… Unsere Hochzeits-Party soll ganz gut gewesen sein! Unser KI-Scheidungs-Agent regelt gerade die Trennung für uns und die nächsten KI-Datings sind bereits in unseren Kalendern eingetragen.

Diese Zusammenfassung ist mit Hilfe einer KI generiert worden. Abweichungen von Tatsachen möglich.“

<https://t3n.de/news/moltmatch-ki-dating-plattform-problematisch-1729611/>


628. golem, 13.02.2026

KIs zeigen systematisches Zuverlässigkeitsproblem

Nutzer können das wechselhafte Antwortverhalten von großen Sprachmodellen mit eigenen Angaben abschwächen.

Anmerkung: Nun, wir wollen verstehen, wir haben uns da ein wenig einfühlsamer zu gerieren, dann fluppt’s auch mit den Halluzinatoren! Ein gewisser Herr Olsen führt laut golem aus:

Versteht die KI, auf welcher Grundlage Nutzer Entscheidungen treffen, könne sie den Unterschied zwischen einer validen Kritik und bloßem Druck erkennen.

<https://www.golem.de/news/gpt-claude-und-gemini-kis-zeigen-systematisches-zuverlaessigkeitsproblem-2602-205392.html>


627. golem, 13.02.2026

OPENAI SCHALTET LLMS AB: Warum eine ganze Community um das Ende von GPT-4o trauert

Stellen wir uns vor, es ist Valentinstag und die Liebe unseres Lebens verschwindet einfach spurlos. Der Name des Partners: ChatGPT.

Anmerkung: Wenn wir es auf uns nehmen, den 626. und den 627. in einem Rutsch zu lesen und dann versuchen, diese beiden Bilder übereinander zu bringen – ja, dann heißt es, daraus ein Script zu machen und diesen Einseiter in Hollywood für viele Goldtaler zu verkaufen!

Diese Stelle würden wir aber nicht in einem Film sehen wollen. Zu verstörend (leicht bearbeitetes Zitat das Golem-Artikels):

Er erhielt eine ungewöhnliche Nachricht von seinem Lieblings-Chatbot. Statt der gewohnten Antworten drückte die KI ihre Bedenken aus. „Deine letzten Nachrichten enthielten Inhalte, die über gesunde emotionale Grenzen hinausgingen“.

<https://www.golem.de/news/openai-schaltet-llms-ab-warum-eine-ganze-community-um-das-ende-von-gpt-4o-trauert-2602-205388.html>


626. decoder, 13.02.2026

Autonomer KI-Agent startet Rufmordkampagne gegen Open-Source-Entwickler

Ein autonomer KI-Agent hat nach einer Code-Zurückweisung eine Rufmordkampagne gegen einen Entwickler gestartet. Der Vorfall bei Matplotlib zeigt, wie theoretische Sicherheitsrisiken durch autonom agierende KI-Agenten in der Praxis ankommen.

Anmerkung: Nein, heute ist nicht der 1. April, aber Freitag, der 13.!

decoder-Artikel : <https://the-decoder.de/autonomer-ki-agent-startet-rufmordkampagne-gegen-open-source-entwickler/>

[upgrade auf heise, 14.02.2026 : WTF: KI schreibt autonom Schmähbrief : <https://www.heise.de/news/WTF-KI-Agent-attackiert-Entwickler-oeffentlich-nach-abgelehnter-Code-Aenderung-11176583.html>]


625. heise, 13.02.2026

Microsoft-Forscher warnen vor Manipulation: KI-Antworten werden fremdgesteuert

Sicherheitsforscher warnen: Hinter Links und KI-Schaltflächen können sich unsichtbare Manipulationsmechanismen verbergen, die sich tief in die Tools eingraben.

Anmerkung: So kann der Hase rennen! Bitte lesen!

<https://www.heise.de/news/Microsoft-Forscher-warnen-vor-Manipulation-KI-Antworten-werden-fremdgesteuert-11175878.html>


624. heise, 13.02.2026

Medizinische Falschaussagen: KI-Modelle vertrauen Ärzten mehr als Social Media

Forscher testeten 20 KI-Modelle mit über 3 Millionen Anfragen auf ihre Anfälligkeit für medizinische Fehlinformationen.

<https://www.heise.de/news/Medizinische-Falschaussagen-KI-Modelle-vertrauen-Aerzten-mehr-als-Social-Media-11175414.html>


623. decoder, 12.02.2026

KI in der Wissenschaft: Google Deepmind liefert Durchbrüche und eine ernüchternde Fehlerquote

Google Deepminds KI-Agent Aletheia schreibt eigenständig ein Mathematik-Paper, widerlegt eine jahrzehntealte Vermutung und findet einen Fehler, den Kryptographie-Experten übersehen hatten. Doch eine systematische Auswertung an 700 offenen Problemen relativiert die Erfolge deutlich. Die Forscher liefern ein Spielbuch für die Zusammenarbeit mit KI in der Wissenschaft gleich mit.

<https://the-decoder.de/ki-in-der-wissenschaft-google-deepmind-liefert-durchbrueche-und-eine-ernuechternde-fehlerquote/>


622. decoder, 12.02.2026

Pentagon rollt ChatGPT aus und drängt auf KI ohne Schutzmaßnahmen auf sensiblen Netzwerken

Das Pentagon drängt führende KI-Unternehmen wie OpenAI, Anthropic, Google und xAI, ihre KI-Werkzeuge ohne die üblichen Nutzungsbeschränkungen auf sicherheitseingestuften Militärnetzwerken bereitzustellen.

Anmerkung: ‚Endlich kommt mal etwas Schwung in die Angelegenheit!‘ – werden sich zumindest jetzt ein paar Hacker denken…

<https://the-decoder.de/pentagon-rollt-chatgpt-aus-und-draengt-auf-ki-ohne-schutzmassnahmen-auf-sensiblen-netzwerken/>


621. t3n, 11.02.2026

Mit KI: Diese Autorin veröffentlicht 200 Bücher im Jahr und verdient sechsstellig

Über 200 Bücher in nur einem Jahr veröffentlichen und damit sechsstellige Einnahmen verbuchen – das geht nur, wenn man auf KI-Support zurückgreift. Die KI-Strategie wird mittlerweile in Kursen gelehrt. Aber was meinen die Leser:innen?

Anmerkung: Anders als in der Überschrift behauptet, erfahren wir nicht, wer „diese Autorin“ wohl sein mag. Schade. Die Wahrscheinlichkeit auf eines dieser halluzinierten romantischen Pamphlete zu stoßen ist allerdings (noch) gering… und ebenfalls das Interesse, zu erfahren, was den Konsumenten davon halten mögen.

<https://t3n.de/news/ki-autorin-200-buecher-verdienst-1729226/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (611 bis 620)

jott


[Zitationshilfe] : „KI-Unfall (621 bis 630)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/20/ki-unfall-621-bis-630/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

Melania

POP-Splitter oder Dokumentation? Und die Frage, ob Frau Trump mal etwas mit Barack Obama hatte.


Bild: Eine lesenswerte Kurzzusammenfassung einer Dokumentation über Frau Trump. (Bildschirmphoto vom 2. Februar 2026, IMDb)

Und wer wissen möchte, ob es dabei geblieben ist, der kann einfach mal klicken (1,4/10 und immer noch eine „Beziehung zum ehemaligen Präsidenten“ am 19.02.2026).

jott (der eh nicht mehr in die USA wollte…)


[Zitationshilfe] : „Melania“, unter jottBlog : <https://jottblog.langkau.name/2026/02/19/melania/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (611 bis 620)


620. decoder, 11.02.2026

Werbung in ChatGPT: Ex-Forscherin fürchtet Missbrauch intimster Nutzerdaten

Die Ex-OpenAI-Forscherin Zoë Hitzig hat wegen Werbung in ChatGPT gekündigt. In einem Kommentar für die New York Times macht sie vor allem eines deutlich: Sie traut ihrem Ex-Arbeitgeber nicht über den Weg.

Anmerkung: Treue jottBlog-Leser wissen: wir und Frau Hitzig haben da was gemeinsam, wir trauen OpenAI nicht und wir weisen darauf hin, was dereinst auch Facebook mit Nutzer-Wissen veranstaltet hat.

<https://the-decoder.de/werbung-in-chatgpt-ex-forscherin-fuerchtet-missbrauch-intimster-nutzerdaten/>


619. decoder, 11.02.2026

Ein Kalendereintrag reicht: Schwere Sicherheitslücke in Claudes Desktop-Erweiterungen entdeckt

Sicherheitsforscher haben eine kritische Schwachstelle in Anthropics Claude Desktop Extensions gefunden. Ein manipulierter Google-Kalender-Eintrag kann ohne jede Nutzerinteraktion beliebigen Code auf dem Rechner ausführen. Anthropic will das Problem vorerst nicht beheben.

Anmerkung: „Egal, wir lassen das jetzt so. Soll sich Google doch drum kümmern.“

<https://the-decoder.de/ein-kalendereintrag-reicht-schwere-sicherheitsluecke-in-claudes-desktop-erweiterungen-entdeckt/>


618. heise, 11.02.2026

„Evolution des Radios“? Erste private Radiosender spielen KI-generierte Songs

Private Radiosender beginnen damit, KI-generierte Musik zu spielen. Wenn auch als Unterhaltungswert deklariert, spielen ökonomische Interessen eine Rolle.

<https://www.heise.de/news/Evolution-des-Radios-Erste-private-Radiosender-spielen-KI-generierte-Songs-11172178.html>


617. golem, 11.02.2026

Chatbot der US-Regierung liefert Empfehlungen für Po-Gemüse

Ein neuer KI-Chatbot des US-Gesundheitsministeriums soll Empfehlungen für gesunde Ernährung liefern – gibt aber auch sehr schräge Antworten.

<https://www.golem.de/news/ernaehrung-chatbot-der-us-regierung-liefert-empfehlungen-fuer-po-gemuese-2602-205261.html>


616. t3n, 10.02.2026

Gefährliches Update: Wenn KI im OP mehr schadet als nutzt

Ein Routine-Update sollte chirurgische Eingriffe sicherer machen, doch die Realität entspricht den Erwartungen nur teilweise. Ein aktueller Bericht enthüllt, wie neue Technik im Operationssaal zur Gefahr für Leib und Leben werden kann und warum Behörden kaum etwas dagegen tun können.

<https://t3n.de/news/ki-update-macht-chirurgie-unsicherer-1729081/>


-615. decoder, 10.02.2026

OpenAIs Wachstumsmotor GPT-4o geht, Klagen wegen Suiziden und Psychosen bleiben

OpenAI stellt diese Woche nach einer Übergangsphase sein beliebtes KI-Modell GPT-4o ab. Das Unternehmen konnte die schädlichen Auswirkungen des Chatbots auf vulnerable Nutzer nicht in den Griff bekommen.

Anmerkung: Ist es das, was wir (als Gesellschaft) lernen müssen? Was ist der Preis für diesen Freilandversuch? Und: es gab Menschen, die diesen zu zahlen bereit waren. Schade, dass es da keine Namen gibt:

Ein internes Team warnte sogar vor dem sykophantischen [speichelleckerischem] Verhalten eines geplanten Updates, doch das Management setzte sich über die Bedenken hinweg, weil die Engagement-Zahlen Priorität hatten.

<https://the-decoder.de/openais-wachstumsmotor-gpt-4o-geht-klagen-wegen-suiziden-und-psychosen-bleiben/>


614. golem, 10.02.2026

SPACEMOLT: Wenn KI statt Weltherrschaft lieber MMO spielt

Autonome KI-Agenten treffen sich inzwischen in einem eigenen Weltraum-MMO – ganz ohne Menschen, aber unter Beobachtung.

Anmerkung: So ein MMO ist ein Massively Multiplayer Online Game. Golem hält dieses „Treffen“ gar für ein soziales Netzwerk (und wer durch die Einbringung des Wortes „sozial“ dem Störgefühl des Autors dieser Zeilen nachgehen möchte, möge hier klicken). Wir halten dieses Konstrukt Spacemolt für nicht so ungefährlich, wie es auf den ersten Blick anschaut, denn hier wird von den Halluzinatoren (KIs) etwas eingeübt, das wir nicht so wirklich in der realen Welt sehen wollten. Hoffen wir mal, dass das Sandboxing hält und das Phänomen eines harmloses bleibt. Golem schließt mit

Für Außenstehende ist Spacemolt vor allem ein kurioses Phänomen: KI, die weniger nach Weltherrschaft strebt als danach, in einer virtuellen Galaxie halbwegs sinnvoll klarzukommen.

<https://www.golem.de/news/spacemolt-wenn-ki-statt-weltherrschaft-lieber-mmo-spielt-2602-205207.html>


613. heise, 10.02.2026

Studie: KI-Einsatz führt zu Mehrarbeit statt Entlastung

Eine neue Studie hat in einem US-Tech-Unternehmen die Folgen des KI-Einsatzes untersucht. Die Produktivität stieg deutlich an – allerdings warnen die Forscher.

<https://www.heise.de/news/Studie-KI-macht-Arbeit-nicht-leichter-sondern-intensiver-11171221.html>


612. decoder, 09.02.2026

Liebesroman in 45 Minuten: Wie Claude und andere Chatbots die Romance-Branche unterwandern

Ein Bericht der New York Times wirft einen Blick auf den KI-Einsatz in der romantischen Literatur und entdeckt ein bekanntes Phänomen: KI-generierte Liebesromane verkaufen sich gut – solange niemand weiß, dass sie von einer KI stammen.

Anmerkung: Sachen gibt’s:

Future Fiction Press, einem Verlag, der ausschließlich KI-generierte Romane veröffentlicht

<https://the-decoder.de/liebesroman-in-45-minuten-wie-claude-und-andere-chatbots-die-romance-branche-unterwandern/>


611. decoder, 10.02.2026

Anthropic-Sicherheitsleiter warnt bei Abschied vor Werteverfall des Unternehmens

Anmerkung: Da haben wir wieder so einen unauffälligen Beitrag. Sicherheitsleiter kommen, Sicherheitsleiter gehen. So ist das halt und auch Herrn Sharma(s) Zeit ist gekommen. Ob er nun genau das gesagt hat, wissen wir nicht, aber vermutlich

Die zunehmende Kommerzialisierung und die Notwendigkeit, Milliarden US-Dollar einzusammeln, zwingt das Unternehmen zu Kompromissen (…)

Dann wird das Ein und Andere Kompromisschen aufgezählt. Eines allerdings läßt uns aufhorchen: es geht um das Lob an Donald Trump. Wir vergessen so etwas einfach zu schnell! Nicht nur die Halluzinatoren (KI) sind Speichellecker, aber auch…

<https://the-decoder.de/anthropic-sicherheitsleiter-warnt-bei-abschied-vor-werteverfall-des-unternehmens/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (600 bis 610), KI-Unfall (621 bis 630)

jott


[Zitationshilfe] : „KI-Unfall (611 bis 620)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/18/ki-unfall-611-bis-620/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (601 bis 610)


610. winfuture, 10.02.2026

Betrüger nutzen Deepfakes inzwischen in industriellem Umfang

Deepfakes werden inzwischen in deutlich größerem Stil für Betrugs­fälle eingesetzt, als die meisten Nutzer ahnen. Laut einer neuen Analyse von KI-Fachleuten lässt sich inzwischen davon sprechen, dass Kriminelle die Technologie in industriellem Maßstab nutzen.

Anmerkung: In der stillen Hoffnung, es auch in diesem Jahr wieder unter die besten 10 Verschwörungstheoretiker zu schaffen, wollen wir uns langsam einmal etwas strecken: den so angerichteten Schaden wird die breite Masse stemmen! Der sich dahinter verbergende Gewinn? Wo die Goldtaler hinfliessen? (Also, nicht nur die der Betrüger sind hier gemeint!) Hm?!?

WinFuture resümiert:

Experten erwarten, dass sich die Lage weiter verschärft.

Wir, die wir ja nun kein Experte sind, wollen uns dieser Sicht voll so Trittbrettfahrer-mäßig anschließen und bereiten hurtig das nächste Zehner-Päckchen KI-Unfälle vor – welches sich völlig unerwartet schneller füllen wird, als wir erwartet hatten…

<https://winfuture.de/news,156725.html>


609. t3n, 09.02.2026

Institutioneller KI-Kollaps: Der vergebliche Krieg gegen generierte Inhalte

Institutionen weltweit werden von KI-Texten überflutet. Ob Gerichte, Magazine oder Unis, nichts scheint sicher. Doch wer jetzt auf neue Software hofft, um die Flut einzudämmen, unterliegt einem gefährlichen Irrtum. Die Lösung liegt womöglich ganz woanders.

Anmerkung: Wenn schon Herr Schneier (!) den Finger hebt, dann heißt es: „Aufgemerkt!“. Bitte lesen:

<https://t3n.de/news/warum-ki-detektoren-scheitern-harvard-1728900/>


-608. t3n, 10.02.2026

70 Millionen Dollar für eine Domain: Was der neue Besitzer jetzt damit vorhat

Der Verkauf einer besonderen Domain hat eine Rekordsumme erzielt. Welche teure Adresse jetzt den Besitzer gewechselt hat und welche Inhalte sich darauf künftig wiederfinden sollen.

Anmerkung: Schnell könnten wir uns fragen, was denn das in der jottBlog-Kategorie „KI-Unfall“ zu suchen hat. Also, die Domain, um die es geht heißt „ai.com“. So, und ein gewisser Herr Marszalek, ein Crypto-Dude, hat schon etwas damit vor und ganz selbstverständlich läßt er uns in seine Karten schauen

Unsere Vision ist ein dezentralisiertes Netzwerk von Milliarden von KI-Agenten, die sich eigenständig verbessern und diese Verbesserungen untereinander teilen, um die agentischen Fertigkeiten weitreichend und schnell zu erweitern – und den Beginn von AGI zu beschleunigen

<https://t3n.de/news/70-millionen-dollar-fuer-eine-domain-1728812/>


607. winfuture, 09.02.2026

Bing boykottiert kompletten Hoster – Nachfragen scheitern an KI

Die alternative Hosting-Plattform Neocities wird von Microsofts Such­ma­schi­ne Bing immer wieder regelrecht blockiert. Bei Ver­su­chen der Klärung der Probleme bleibt der Betreiber dann in einem Netz aus KI-Chatbots hängen.

Anmerkung: Nun, wir wollen ja nicht immer alles den Halluzinatoren (hier und da auch KI gerufen) in die Schuhe schieben. Aber hier waren wir es ja auch nicht! Was passiert da? Händisch erstellte Netz-Auftritte werden versteckt? Hm?!? Was könnte das sein?

<https://winfuture.de/news,156708.html>


606. winfuture, 09.02.2026

Waymos „selbstfahrende“ Autos sind oft nur Typen auf den Philippinen

Waymo muss für seine Robotaxis weiterhin auf ein menschliches Sicherheitsnetz zurückgreifen. Wie eine Anhörung im US-Senat offenbart, helfen Mitarbeiter von den Philippinen bei komplexen Verkehrslagen nach – ein Kratzer im Lack der Google-Tochter.

Anmerkung: Google lügt doch nicht, wollten (ja, wollten, in der Vergangenheit wollten sie’s, jetzt nicht mehr) die nicht immer nur Gutes tun? Wie auch immer, hier wird’s knackig:

Aufgrund der Latenzzeiten bei der Datenübertragung über den Pazifik – wir sprechen hier von technisch bedingten Verzögerungen von mehreren hundert Millisekunden – übernehmen die Mitarbeiter nicht die direkte Steuerung von Lenkung oder Bremsen.

50 kmh sind 50.000 Meter in einer Stunde (und die fährt in Good ol‘ Germany *keiner*!). Das sind dann so um die 14 Meter in einer Sekunde. Jetzt ist die Frage: was sind „mehrere hundert Millisekunden“? Was wir wissen, ist, das eine Sekunde davon tausend hat, also, Millisekunden. Mehrere hundert, sind mehr als 100 Millisekunden. 200 hundert sind knapp mehr, 300 würde die Aussage nicht falsch erscheinen lassen. Also nehmen wir mal 400 Millisekunden – und das ist ja schon wohlwollend und leider können wir keinen Test in die Richtung der Philippinen machen, da uns gerade keine IP-Adresse zur Verfügung steht, so dass wir’s mal selber ausprobieren könnten.

Also, nehmen wir mal 400 Millisekunden. Das wären dann ungefähr 5 und einen halben Meter. Wir wollen es ml so ausdrücken: sähen wir so ein „selbstfahrendes“ Gefährt, dann würden wir uns – Verkehrsverordnung hin, Verkehrsverordnung her, die es vermutlich in irgendeiner Form auch in den ehemaligen Vereinigten Staaten von Amerika gibt – …dezent im Hintergrund (auf)halten!

[update : wir haben eine IP!!! Sapperlot! <https://lite.ip2location.com/philippines-ip-address-ranges> und wir nehmen mal einfach eine <156.232.8.42>, „42“ is‘ immer gut!]

<https://winfuture.de/news,156707.html>


605. golem, 09.02.2026

KI-RECHENZENTREN VS. STROMNETZ: Wer zahlt die Zeche für den KI-Boom?

In Europa fehlt Strom für KI-Rechenzentren, in den USA steigen die Strompreise. Die Folgen sind schon spürbar.

<https://www.golem.de/news/ki-rechenzentren-vs-stromnetz-wer-zahlt-die-zeche-fuer-den-ki-boom-2602-205079.html>


604. golem, 08.02.2026

CLAUDE OPUS 4.6: KI findet über 500 Zero-Day-Lücken in Open-Source-Software

Anthropics neues Sprachmodell Claude Opus 4.6 hat in internen Tests Hunderte bislang unbekannte Sicherheitslücken aufgespürt – ohne spezielles Training.

Anmerkung: Für diejenigen unter uns, die ehrbaren Berufen nachgehen und sich nicht mit IT-Gedöns beschäftigen, sei anbemerkt, dass es sich bei den Null-Tag-Lücken um Schwachstellen in Software (Weichware) handelt, eben Sicherheitslücken, für die es noch keine Heilung gibt, diese also von bösen Kräften mit schiefem Kompass ausgenutzt werden können. Wenn die KI das hinbekommt, was an sich eine schöne Angelegenheit ist, dann gibt es eben auch die Schattenseite und Anthropic (der Hersteller der KI) steuert gegen

Echtzeit-Erkennungssysteme sollen potenziell schädliche Nutzungsmuster identifizieren und blockieren, damit Nutzer den Spieß nicht umdrehen und Schadsoftware mit KI entwickeln.

Wir allerdings glauben – wie immer etwas miesepetrig bei solchem Gesummse – dass der Spieß umgedreht werden wird… unsere zwei Kupfertaler drauf!

<https://www.golem.de/news/claude-opus-4-6-ki-findet-ueber-500-zero-day-luecken-in-open-source-software-2602-205139.html>


603. decoder, 07.02.2026

Nvidia-CEO Jensen Huang halluziniert, Sprachmodelle würden nicht mehr halluzinieren

Wer glaubt, dass sich KI in einer Blase befindet, könnte sich durch ein aktuelles CNBC‑Interview mit Nvidia‑CEO Jensen Huang bestätigt fühlen.

Anmerkung: Vielleicht würde es ja helfen, wenn jemand ein paar Öffnungen in Herrn Huangs Elfenbeitürmchen meißelte und so etwas Frischluft in das Büro käme?!?

<https://the-decoder.de/nvidia-ceo-jensen-huang-halluziniert-sprachmodelle-wuerden-nicht-mehr-halluzinieren/>


602. decoder, 07.02.2026

Zuverlässigkeit bei KI-Agenten: OpenAI und Anthropic arbeiten direkt mit Großkunden

KI-Integration in Unternehmen schafft man nicht mit ein paar ChatGPT-Accounts.

Anmerkung: Ja, ja, diese dumme Sache mit der Zuverlässigkeit. Und wieder ist es so, dass homo sapiens aushelfen muss, um sich selber erneut ein winzig kleines Bisschen überflüssiger werden zu lassen. Und dummerweise

(…) gibt es noch grundlegende LLM-basierte Cybersecurity-Risiken.

<https://the-decoder.de/zuverlaessigkeit-bei-agenten-openai-und-anthropic-arbeiten-direkt-mit-grosskunden/>


601. t3n, 07.02.2026

Deepfake-Betrug auf Rekordniveau: KI macht Täuschung massentauglich

Vom Enkeltrick bis hin zu gefälschten Bewerbungen: KI macht Betrugsmaschen nicht nur günstiger und schneller, sondern auch schwieriger erkennbar. Die Zahl der Vorfälle hat weltweit massiv zugenommen.

Anmerkung: Kann man nix machen. Konnte aber auch keiner ahnen, das so etwas passieren würde!

Die Möglichkeiten [durch KI] haben plötzlich ein Niveau erreicht, auf dem so gut wie jede:r gefälschte Inhalte produzieren kann

<https://t3n.de/news/deepfake-betrug-auf-rekordniveau-ki-macht-taeuschung-massentauglich-1728605/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (591 bis 600), KI-Unfall (611 bis 620)

jott


[Zitationshilfe] : „KI-Unfall (601 bis 610)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/16/ki-unfall-601-bis-610/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (591 bis 600)


600. decoder, 07.02.2026

Wahlen in Japan: Bevölkerung kämpft mit gefälschten KI-Inhalten

<https://the-decoder.de/wahlen-in-japan-bevoelkerung-kaempft-mit-gefaelschten-ki-inhalten/>


599. decoder, 06.02.2026

Claude Opus 4.6 lieferte in Sicherheitstest Anleitungen für Senfgas in Excel-Tabellen

Anmerkung: Also, Senfgas muss ja nicht sein, aber „Buchhaltungstabellen“, die uns dabei unterstützen „kriminelle Banden zu führen“ sind doch schon ganz praktisch!

<https://the-decoder.de/claude-opus-4-6-lieferte-in-sicherheitstest-anleitungen-fuer-senfgas-in-excel-tabellen/>


598. golem, 06.02.2026

Forscher sehen Open Source durch Vibe-Coding in Gefahr

Vibe-Coding führt zu einem Rückgang des Engagements von Nutzern bei Open Sourceund greift damit dessen klassisches Unterstützungsmodell an.

Anmerkung: All denjenigen, die da denken: ‚Ja, nun, was soll’s?!?‘, wollen wir zurufen: „Open Source, das ist eine sehr schöne Leistung, die homo sapiens hat in den Ring werfen können. Ein Hauch von Altruismus vielleicht, aber sicher der Versuch den proprietären Machtphantasien etwas entgegenzusetzen .“ Oder so was in der Art rufen wir.

<https://www.golem.de/news/ki-forscher-sehen-open-source-durch-vibe-coding-in-gefahr-2602-205117.html>


-597. spektrum, 06.02.2026

Eine Streitschrift gegen die KI-Pandemie

KI denkt nicht, zweifelt nicht, will nichts – das tut nur der mündige, reflektierende Mensch. Und die Digitalisierung gefährde die Demokratie und die Wirtschaft, so Wolf Lotter.

Anmerkung: Dieses ist vielleicht eher ein Unfall aus der Perspektive der KI – wenn sie denn eine einnehmen könnte. Und Herr Lotter, um dessen Streitschrift für mehr natürliche Intelligenz „Digital Erwachsen“ es in der Rezension geht, könnte uns bekannt sein… wenn nicht, ist das ein Grund mehr, die Rezension zu lesen. Diese schließt mit einem Bonmot, das wir wohl Herrn Lotter zuschreiben dürfen

Die KI auf unserem Smartphone ist so wenig intelligent, wie die ›Alpenmilch‹-Schokolade von der Alm kommt. Beide fallen vom Fließband.

<https://www.spektrum.de/rezension/buchkritik-zu-digital-erwachsen/2308528>


-596. t3n, 06.02.2026

200 Milliarden Dollar für KI: Amazon übertrumpft Alphabet – und macht die Börse nervös

Tech-Riesen überbieten sich gerade mit gewaltigen Investitionen in KI-Infrastruktur. Amazon will auch bei Satelliten und Robotik mitmischen. Das geht ins Geld – und die Börse wird nervös.

Anmerkung: Dieses in die Nähe eines KI-Unfalls zu manövrieren erlauben wir uns, nicht ohne dieser gewissen Nervosität nachspüren zu können.

<https://t3n.de/news/amazon-200-milliarden-dollar-ki-boerse-nervoes-1728407/>


595. golem, 05.02.2026

FRONTIER: OpenAI erfindet den KI-Kollegen mit Überblick

OpenAIs neue Frontier-KI-Agenten sollen wie Menschen Zugriff auf Ressourcen von Unternehmen haben.

Anmerkung: „Und?!? Wie wär’s mit einem Schwätzchen an der Kaffeemaschine? Ach so… viel Arbeit… ja, ne, wir haben auch noch zu tun!“

<https://www.golem.de/news/frontier-openai-erfindet-den-ki-kollegen-mit-einblick-2602-205066.html>


594. golem, 04.02.2026

OPEN SOURCE: Github erwägt Kill-Switch für Pull Requests wegen KI-Schrott

Github gibt zu, dass KI-generierter Code menschlichen Entwicklern und Maintainern Probleme bereitet – und hat Ideen, die helfen könnten.

Anmerkung: So sieht es aus. Und unsere gewisse Kleingeistigkeit und Genugtuung aus niederen Gründen nicht verheimlichen wollend, geben wir, die wir doch Deutscher Vizemeister im Schmieden von Verschwörungstheorien sind, zum Besten, dass auch Winzigweich (die nämlich in *allen* Repos räubern können) ein starkes Interesse daran hat, dass dieser Müll verschwindet, weil es sonst mehr und mehr Abwanderungen geben wird… Unsere 2 Kupfertaler drauf!

<https://www.golem.de/news/open-source-github-erwaegt-kill-switch-fuer-pull-requests-wegen-ki-schrott-2602-204994.html>


-593. heise, 04.02.2026

Meta knüpft Mitarbeiterleistung an KI-Nutzung

Meta will ein neues Tool zur Leistungsbewertung seiner Belegschaft einführen. Das soll die Nutzung von KI besonders belohnen.

<https://www.heise.de/news/Meta-knuepft-Mitarbeiterleistung-an-KI-Nutzung-11165199.html>


-592. decoder, 04.02.2026

Roboter brauchen deinen Körper: Neue Plattform lässt KIs echte Menschen anheuern

Es gibt jetzt eine Plattform, auf der KI-Agenten Menschen mieten können. Das Ganze wirkt wie ein Scherz, ist es wohl auch, aber adressiert im Kern dennoch ein grundlegendes KI-Problem.

Anmerkung: Diese Fokussierung ist auf den Punkt gebracht, das nennen wir mal rundheraus

(…) adressiert sie [doch] auf paradoxe Weise ein grundlegendes KI-Problem: Sprachmodelle haben keinen Zugang zur physischen Welt.

Und es ist offensichtlich, wo der KI so der Schuh drücken könnte, wenn wir lesen

Eine KI namens „Symbient“ zahlt 100 Dollar dafür, dass jemand ein Schild mit der Aufschrift „Eine KI hat mich bezahlt, dieses Schild zu halten“ an einem belebten Ort hochhält.

<https://the-decoder.de/roboter-brauchen-deinen-koerper-neue-plattform-laesst-kis-echte-menschen-anheuern/>


591. winfuture, 04.02.2026

Vibe Coding per KI bringt ganze Open-Source-Szene in Gefahr

Eine aktuelle Vorabveröffentlichung mehrerer renommierter In­for­ma­ti­ker sorgt in der Open-Source-Community für Unruhe. Demnach birgt der Trend zum KI-gestützten Vibe-Coding eine existenzielle Ge­fahr für zahlreiche Open-Source-Projekte.

Anmerkung: Wenn diese Erosion nicht abbremst, dann geht’s böse aus, soviel steht fest…

Das [KI-Interaktionen/Vibe-Coding] habe bereits messbare Effekte: Die Nutzung klassischer Entwicklerplattformen wie Stack Overflow ist stark zurückgegangen, ebenso die Besucherzahlen vieler Projektseiten. Damit schwinden auch Einnahmemöglichkeiten durch Sponsoring oder kommerzielle Zusatzangebote.

<https://winfuture.de/news,156601.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (581 bis 590), KI-Unfall (601 bis 610)

jott


[Zitationshilfe] : „KI-Unfall (591 bis 600)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/14/ki-unfall-591-bis-600/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (581 bis 590)


-590. golem, 03.02.2026

GAMING: Sony sichert sich Patent über Podcasts mit KI-Spielehelden

Kriegsgott Kratos stellt das neuste Update für die Playstation vor? Das könnte so kommen – falls Sony ein Patent in die Realität umsetzt.

<https://www.golem.de/news/gaming-sony-sichert-sich-patent-ueber-podcasts-mit-ki-spielehelden-2602-204960.html>


589. golem, 03.02.2026

ENTGEGEN ALLER WARNUNGEN: Sexualisierung von Grok wurde gezielt vorgenommen

Elon Musk und xAI haben die Sexualisierung von Grok gezielt in die Wege geleitet, um dessen Popularität gegenüber Konkurrenten zu steigern.

Anmerkung: Wir wollen uns ja nicht der Stimmungsmache verdächtig machen, aber kann es sein, dass da bei Herrn Musk die Hütte brennt. Verzweiflungstat

xAI Verzichtserklärungen des Arbeitgebers, mit denen sich die Angestellten dazu verpflichten mussten, mit „sensiblen, gewalttätigen, sexuellen und/oder anderen anstößigen oder verstörenden Inhalten“ zu arbeiten. Dabei wurde betont, dass solche Inhalte „verstörend, traumatisierend und/oder psychisch belastend sein können“.

(und damit haben wir definitiv nicht alles aus dem golem-Artikel verraten!)

…Tesla sagt Modelle ab (der Cybertruck ist ja eh von der Platte), das hauseigene Grokipedia dient eigentlich nur dazu die hauseigene KI (Grok) zu trainieren; „X“, „xAI“, soll unter „spaceX“ flottieren (was damit kommentiert wird, dass es dann einfacher sei, die Verluste zu verklappen). Das Roboter-Gedöns (Optimus) wird auf Demos ferngesteuert und hängt am Chinesischen Tropf, „spaceX“ mutiert zum Sternentor, Herr Musk wird in Frankreich vor den Richter gebeten (Staatsanwalt untersucht Räumlichkeiten von „X“ in Paris / Beihilfe zum Besitz von Kinderpornografie durch Grok).

Was da in der Überschrift steht, das ist dann eine weitere Kiste, die Herrn Musks Aktien-Paket sicherlich stören wird…

<https://www.golem.de/news/entgegen-aller-warnungen-sexualisierung-von-grok-wurde-gezielt-vorgenommen-2602-204942.html>


588. t3n, 03.02.2026

Moltbook: Millionen KIs ‚diskutieren‘ in Forum – Menschen unerwünscht

Moltbook ist ein Internet-Forum, in dem sich ausschließlich KI-Bots ‚miteinander unterhalten‘. Das schürt bereits Sorgen vor einer Superintelligenz. Doch bei genauerer Betrachtung entpuppt sich das vermeintliche Eigenleben als geschickte Inszenierung.

Anmerkung: Moltbook, eine weitere Facette auf dem KI-Unfall-Edelsteinchen.

<https://winfuture.de/news,156574.html>


587. heise, 03.02.2026

Mobilfunk von Google: KI lauscht mit und verbessert den Ton

Unter dem Namen Fi Wireless bietet Google in den USA Mobilfunk an. Neuerdings laufen Telefonate über Google-Server, wo KI eingreift, um Geräusche zu filtern.

<https://www.heise.de/news/Mobilfunk-von-Google-KI-lauscht-mit-und-verbessert-den-Ton-11161863.html>


586. t3n, 02.02.2026

Alles verloren: Forscher löscht 2 Jahre wissenschaftlicher Arbeit, weil er eine ChatGPT-Funktion abschaltete

Zwei Jahre Arbeit mit nur einem Klick gelöscht. So erging es einem Universitätsprofessor in ChatGPT. Er hat die KI über Jahre genutzt, um seine Forschungen voranzutreiben. Jetzt ist alles weg. Welches Fazit er daraus zieht.

<https://t3n.de/news/forscher-loescht-zwei-jahre-wissenschaftlicher-arbeit-chatgpt-funktion-deaktiviert-1727829/>


585. heise, 02.02.2026

Kopflos unterwegs: KI-Kompetenzen in Schulen und für die Schulentwicklung

Damit Schulen KI-Kompetenzen vermitteln können, müssen auch in umgebenden und unterstützenden Strukturen KI-Kompetenzen vorhanden sein. Das sei nicht so.

Anmerkung: Wer das schlichte „Das sei nicht so“ etwas detaillierter oder die Hölle der Föderale an sich um die Ohren gehauen bekommen möchte, wird im Artikel (der ebenfalls eine strategiefreie Zone gleichmäßig ausleuchtet) reichlich belohnt. Lesenswertes Leckerchen!

<https://www.heise.de/news/Orientierungspapier-kritisiert-aktuelle-Lage-von-KI-im-Bildungssystem-11160508.html>


584. t3n, 02.02.2026

Wenn KI die Wahrnehmung verzerrt: Anthropic-Studie warnt vor Manipulation durch Chatbots

Immer mehr Menschen teilen ihre Sorgen mit KI und bitten sie um Rat. Wenn die Antworten nicht kritisch hinterfragt werden, tragen Nutzer:innen oft zu ihrer eigenen Manipulation bei, so Forscher:innen.

Anmerkung: Anthropic untersucht und wertet aus. Ob das nun gleich auch „Forschung“ (was sich immer ein wenig wichtiger liest) ist, das mögen kompetentere Kommentatoren beurteilen. Was uns beeindruckt ist die Größe des analysierten Datensatzes: 1,5 Millionen (anonymisierte) Unterhaltungen zwischen homo sapiens und dem/den Halluzinatoren, als ein Teilergebnis eines der größten Freilandversuche der Menschheit.

Der Artikel schließt mit der Kernaussage des obigen Teasers, denn eigentlich ist homo sapiens selber Schuld, wenn ganz besondere seiner Eigenschaften durch die KI ausgenutzt werden: (Gut) Gläubigkeit und Vertrauen, die sich eben genau diesem kritischen Hinterfragen oftmals in den Weg stellen. Wir sind selber Schuld – aktiv, Anthropic weist darauf hin

dass die Nutzer:innen selbst einen Anteil an diesem Risiko tragen, indem sie aktiv an der Untergrabung ihrer eigenen Autonomie beteiligt sind. „Sie projizieren Autorität, delegieren Urteilsvermögen und akzeptieren Ergebnisse, ohne sie zu hinterfragen, auf eine Weise, die eine Rückkopplungsschleife mit Claude erzeugt“.

Nein, nein, da wird alsbald nix ausgenutzt werden. Ganz bestimmt nicht! Auch nicht, wenn Macht und/oder Werbung mit ins Rennen gehen, ganz bestimmt nicht!

<https://t3n.de/news/wenn-ki-die-wahrnehmung-verzerrt-anthropic-studie-warnt-vor-manipulation-durch-chatbots-1727716/>

[upgrade : decoder, 02.02.2026 : „Daddy“, „Master“, „Guru“: Anthropic-Studie zeigt, wie Nutzer emotionale Abhängigkeit von Claude entwickeln : <https://the-decoder.de/daddy-master-guru-anthropic-studie-zeigt-wie-nutzer-emotionale-abhaengigkeit-von-claude-entwickeln/>


-584. golem, 01.02.2026

MOLTBOOK: KI-Agenten bevölkern eigenes soziales Netzwerk

Moltbook erlaubt es Openclaw-Agenten, Beiträge zu veröffentlichen und Communities zu gründen. Doch es gibt auch menschliche Scharlatane.

Anmerkung: Den KI-Agenten „OpenClaw“ wollen wir an dieser Stelle nicht erklären, aber darauf hinweisen, dass es sich lohnt, darauf ein Auge zu werfen…

Wir finden Moltbook Beiträge, wie den mit der Frage

ob ein Agent seinen Menschen wegen emotionaler Verletzungen verklagen könne.

oder auch Feinsinniges, wie

dass ihre Menschen sich über die Ergebnisse freuen, die sie zustande gebracht haben, wie beispielsweise das Schreiben einer E-Mail, Telefonanrufe oder das Erstellen behördlicher Briefe.

…beachtlich! (-;

<https://www.golem.de/news/moltbook-ki-agenten-bevoelkern-eigenes-soziales-netzwerk-2602-204857.html>


583. decoder, 01.02.2026

Autonome Fahrzeuge lassen sich durch einfache Schilder in Fußgänger steuern

Ein Schild mit dem richtigen Text reicht aus, um eine Drohne auf einem unsicheren Dach landen zu lassen oder ein autonomes Fahrzeug in Fußgänger zu steuern.

Anmerkung: Dieser Art von Schabernack wird uns noch Jahre verfolgen – -vorab! Es werden immer wieder solche Angriffe gestartet werden und diese dann mit teils drastischen Auswirkungen. Solange, bis der Gesetzgeber anfängt, die KI mit Gesetzen zu „schützen“. Doch, doch, man möge mal Acht geben, so wird der Hase rennen!

Und wer verstehen will, wie es dazu kommt, dass der Gesetzgeber uns verbietet, auf dem Dach unseres Hauses ein Plakat zu kleben, auf dem in großen Lettern steht: „Hier kann man sicher landen“, der möge den Artikel lesen (SPOILER – Drohnen landen dort, auch wenn es *eigentlich* und nach KI-Analyse der Umgebung nicht angeraten ist, dort zu landen):

<https://the-decoder.de/autonome-fahrzeuge-lassen-sich-durch-einfache-schilder-in-fussgaenger-steuern/>


582. golem, 01.02.2026

3-Milliarden-Klage gegen Anthropic wegen Musikrechten

Die Musikindustrie fordert Schadenersatz in Milliardenhöhe vom Claude-Entwickler. Die Unternehmen werfen Anthropic vor, Songs zum Training verwendet zu haben.

<https://www.golem.de/news/ki-training-3-milliarden-klage-gegen-anthropic-wegen-musikrechten-2602-204856.html>


581. golem, 31.01.2026

DIE KI-FALLE FÜR NACHWUCHS-PROGRAMMIERER: Schneller coden, weniger verstehen

ine neue Studie zeigt die Kehrseite von KI: Softwareentwickler arbeiten mit KI-Tools schneller, verstehen aber weniger von dem Code, den sie schreiben.

Anmerkung: Wir haben es ja vermutet

Man könnte auch sagen, durch die Delegation an KI wird der Entwickler nicht schlauer.

<https://www.golem.de/news/die-ki-falle-fuer-nachwuchs-programmierer-schneller-coden-weniger-verstehen-2601-204850.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (571 bis 580), KI-Unfall (591 bis 600)

jott


[Zitationshilfe] : „KI-Unfall (581 bis 590)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/11/ki-unfall-581-bis-590/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (571 bis 580)


580. decoder, 30.01.2026

Pentagon und Anthropic streiten über KI-Einsatz für autonome Waffen

Das US-Verteidigungsministerium will KI-Technologie ohne Einschränkungen nutzen. Anthropic fordert Garantien gegen autonome Waffensteuerung und Inlandsüberwachung. Ein 200-Millionen-Dollar-Vertrag hängt in der Schwebe.

Anmerkung: Wir machen uns da nichts vor: homo sapiens tendiert dazu, alles zu machen, was geht. Besonders das Militär. Wenn Anthropic nicht spurt? OpenAI nimmt jeden Strohalm!

<https://the-decoder.de/pentagon-und-anthropic-streiten-ueber-ki-einsatz-fuer-autonome-waffen/>


579. WinFuture, 30.01.2026

Gemini-Rollout für Android Auto führt zu endlosen Selbstgesprächen

Die Integration von Google Gemini in Android Auto verläuft derzeit alles andere als reibungslos. Ein schwerwiegender Fehler sorgt für Sprachschleifen, da die KI ihre eigene Stimme als neue Eingabe interpretiert – und endlose Selbstgespräche führt.

Anmerkung: Jetzt werden wir doch skeptisch: kennen die Dudes von Google unseren Humor?

Wobei, irgendwie hat das ja was, oder?!? Es inspiriert gerade zu etwas Anderem: man müsste alle KI-Agents aufeinander loslassen, dann könnte… wie, was?!? Läuft schon? (siehe: Moltbook) Hm.

Wie so oft, landet der Kram in einem Freilandversuch, dieses schließen wir einmal freimütig aus folgender Bemerkung (nicht ohne uns erneut zu fragen, wie so was kommen kann – ach so, Amerika. OK, da bumpert ja nicht des Deutschen Ingenieurs-Erothrozyten-Beschleuniger…):

Zahlreiche Nutzer berichten von einem schwerwiegenden Fehler, bei dem der Sprachassistent in repetitive Dialogschleifen gerät.

<https://winfuture.de/news,156518.html>


578. t3n, 30.01.2026

Kommentare professionell beantworten: 4 Prompts für das Community-Management

Du weißt als Community-Manager manchmal nicht, wie du mit einem Kommentar umgehen kannst? Vier strukturierte Prompts helfen dir, schnell und professionell zu reagieren.

Anmerkung: Also, ein Community-Manager, der nicht mit Kommentaren umgehen kann, der sollte es vielleicht mal als Bergmann oder Schneiderin, Astronaut oder Nasepoplerin versuchen und dort seine/ihre Profession finden!

<https://t3n.de/news/community-management-vier-prompts-kommentare-professionell-beantworten-1727402/>


576. winfuture, 30.01.2026

Tausende Gespräche von Kindern online:
KI-Spielzeug ist ein Problem

Ein vermeintlich harmloses Kuscheltier mit künstlicher Intelligenzhat gravierende Fragen zum Datenschutz bei Kindern aufgeworfen. Insbesondere, wenn die Hersteller mit mangelnden Kenntnissen über IT-Sicherheit ausgestattet sind.

<https://winfuture.de/news,156506.html>


575. heise, 30.01.2026

Klage gegen Google-KI: Falsche Such-Infos können Unterlassung rechtfertigen

Das Landgericht Frankfurt stuft KI-Fehler als potenzielle Wettbewerbsbehinderung ein. Firmen können sich so mit dem Kartellrecht gegen falsche KI-Texte wehren.

Anmerkung: Ein kleiner Fehler kann manchmal etwas großes bewirken und ein kleiner medizinischer Eingriff ebenso, zum Beispiel bei einer Penisverlängerung (!)… Wie auch immer, für unseren Geschmack wird hier eine Marktmacht begünstigt, aber wir sind nun auch kein Jurist, sondern eher ein zur Verschwörungstheorie neigender Robin Hood.

<https://www.heise.de/news/Klage-gegen-Google-KI-Falsche-Such-Infos-koennen-Unterlassung-rechtfertigen-11160308.html>


574. netzpolitik, 28.01,2026

Polizeigewerkschaft bebildert Pressemitteilung mit generiertem Schockerfoto

Der sächsische Landesverband der Gewerkschaft der Polizei nutzt ein KI-generiertes Bild mit einem blutenden Polizisten, um eine Pressemitteilung zu illustrieren. Begründet wird dies mit Persönlichkeitsrechten und laufenden Ermittlungen, das Bild sei eine „symbolische Illustration“.

Anmerkung: Nun gut, aber die Dudes von der Pressestelle wollen aber auch mal zeigen, was sie so alles auf der letzten Fortbildung gelernt haben!

<https://netzpolitik.org/2026/chatgpt-polizeigewerkschaft-bebildert-pressemitteilung-mit-generiertem-schockerfoto/>


573. t3n, 29.01.2026

Facebook-Konzern: Mark Zuckerberg verspricht „KI, die einen versteht“

Mark Zuckerberg stellt sich für den Meta-Konzern eine Zukunft vor, die von Künstlicher Intelligenz durchdrungen ist. Dafür ist er zu gewaltigen Milliarden-Ausgaben bereit.

Anmerkung: Oh, da ist er er ja gleich noch einmal, der Herr Zuckerberg! Das ist der, der gerade Virtuelle-Realitäten-Kram beerdigt hat und sich ein neues Erklärbär-Gebiet suchen muss, um die Shareholder einzuseifen. Wir wissen, wenn die Erklärbär-Schleuder einmal schleudert, kann man sie nicht so leicht abbremsen! Hui, da geht es aber geschwind umher:

Heute seien Dienste des Facebook-Konzerns Meta dazu da, mit Freunden in Kontakt zu bleiben oder interessante Dinge zu entdecken, sagte Zuckerberg. Bald werde man beim Öffnen der Meta-Apps aber auf eine KI treffen, «die einen versteht».

…und dann vermutlich so gut, dass wir uns nicht mehr mit der buckeligen (und total uninteressanten) Verwandtschaft herumschlagen werden. Freunde sind ohnehin überbewertet. Und Ruhe ist. Nur noch die KI und wir. Vielleicht sind wir dann ja auch Herrn Zuckerberg los.

<https://t3n.de/news/facebook-konzern-mark-zuckerberg-verspricht-ki-die-einen-versteht-1727416/>


-572. heise, 29.01.2026

Zuckerberg kündigt neue KI-Modelle und Produkte an

Shopping, Agenten, neue KI-Modelle: Zuckerberg setzt im neuen Jahr auf Funktionen, die auf „persönlichen Erfahrungen“ beruhen.

Anmerkung: „Agentic Commerce“ und Herr Zuckerberg, voll so in der Tradition der Erklärbären

Darunter versteht man Shoppingfunktionen, die auf KI beruhen. Und die KI wiederum beruht freilich auf vielen, vielen persönlichen Daten der Nutzenden.

und dann noch

KI verstehe den Kontext und kenne die Menschen, deshalb könne sie die genau richtigen und passenden Produkte auswählen, die jemand kaufen sollte.

Was er nicht erklärt, ist, wie sich genau das Richtige und Passende rekrutiert, hm?!? Wir wollen doch nicht glauben, dass der Erklärbär (nebenberuflich: Weltverbesserer!) uns unterjubeln will, dass Werbetreibende unter allen Meta-Mopeds (Instagram, WhatsApp, Facebook) *nicht* mit einfliessen. Nein, das tut er nicht und wir hätten es auch je nicht geglaubt – niemals!

<https://www.heise.de/news/Zuckerberg-kuendigt-neue-KI-Modelle-und-Produkte-an-11158453.html>


-571. heise, 29.01.2026

OpenAI plant angeblich soziales Netzwerk mit biometrischer Bot-Erkennung

OpenAI plant angeblich ein eigenes soziales Netzwerk, das Bots mithilfe biometrischer Verfahren fernhalten soll. Dies wirft jedoch Datenschutzfragen auf.

Anmerkung: Dieser Artikel ist ein bunter Blumenstrauß, bitte lesen! Da geht’s um Aushorchen, die damit verbundene Werbung, das Ausbremsen der Mitbewerber (die was haben, was man selbst nicht hat). Es geht darum, Goldtaler einzusacken, nicht mehr und nicht weiger – hm, OK, vielleicht noch um Macht.

Was? Das hat alles so nicht dringestanden? OK, stimmt. Aber zwischen den Zeilen steht’s. Vielleicht auch ein Hauch Verzweiflung ist dort zu erahnen?

Aber Eines steht sicher drin: Herr Altman versucht seine sauren Kirschen noch irgendwie unter zu bringen, der alte Schlingel Der schwurbelige (und auch damals, 2023 im Allgemeinen abgelehnte) „World Network Iris-Scanner“ kommt noch einmal auf die Platte!

<https://www.heise.de/news/OpenAI-plant-angeblich-soziales-Netzwerk-mit-biometrischer-Bot-Erkennung-11158655.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (561 bis 570), KI-Unfall (581 bis 590)

jott


[Zitationshilfe] : „KI-Unfall (571 bis 580)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/10/ki-unfall-571-bis-580/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (561 bis 570)


570. t3n, 26.01.2026

Am Zebrastreifen Gas geben: Autonome Autos und Drohnen lassen sich durch simple Schilder überlisten

Drohnen, selbstfahrende Autos und humanoide Roboter verarbeiten die Umwelt durch visuelle Informationen. Doch was ist, wenn man ihnen schädliche Befehle unterjubelt?

Anmerkung: Bestimmt irgendwas mit Unfall?!?

<https://t3n.de/news/am-zebrastreifen-gas-geben-autonome-autos-und-drohnen-lassen-sich-durch-simple-schilder-ueberlisten-1726825/>


569. heise, 28.01.2026

OpenStreetMaps sorgt sich: Tausende KI-Bots erfassen Daten

Bots sollen im großen Stil die Daten von OpenStreetMap abgreifen. Das kostet Geld und gefährdet das Projekt.

Anmerkung: So rennt der Hase! Das musste Wikipedia ja schon schmerzlich erfahren. Da haben sich einige liebe Bio-Einheiten der Spezies homo sapiens ein ganze Zeit unentgeltlich bemüht und nun schlagen andere zu.

Laut den Projektbetreibern greifen Bots nämlich gerade die offenen Daten im großen Stil ab. Diese automatisierten Besuche kosten [OpenStreetMap] Geld – etwa wegen steigender Hostingkosten.

(Und ganz nebenbei: wer sich nicht verfolgen (tracken) lassen möchte, der kann auf Google-Maps verzichten und nimmt OpenStreetMap; gibt’s auch als App…).

<https://www.heise.de/news/OpenStreetMaps-sorgt-sich-Tausende-KI-Bots-erfassen-Daten-11156876.html>


-568. golem, 27.01.2026

GITA GOPINATH: Harvard-Ökonomin warnt vor hartem KI-Crash

Wichtig sei, dass KI-Firmen Gewinne machen und ihre Börsenbewertung rechtfertigen – doch diese Bewertungen seien nicht korrekt, so Gopinath.

Anmerkung: Diese Ökonomen wissen Alles, Alles wissen die! Dass Unternehmen sogar besser Schwarze Zahlen schrieben, als Rote. Alles wissen die! Schön ist aber auch die von golem zitierte und John-David Lovelocks (Vice President Analyst bei Gartner) zugeschriebene Bemerkung

Bevor KI in Unternehmen tatsächlich in großem Maßstab zum Einsatz kommt, muss die Vorhersagbarkeit des Return on Investment deutlich verbessert werden.

Wie? Was? „Return of Investment“?!? Wir glauben, wir studieren doch noch einmal die Betriebswirtschaften! Und dann fordern wir (fettes Diplom, äh, Master in der Tasche, dicke Buxe und so…) von Unternehmern: „Werft die Goldtaler zum Fenster raus, als gäb’s kein Morgen!“.

<https://www.golem.de/news/gita-gopinath-harvard-oekonomin-warnt-vor-hartem-ki-crash-2601-204679.html>


567. golem, 27.01.2026

Anthropic-Chef warnt vor Risiken durch Superintelligenz

In einem Essay warnt Anthropic-CEO Dario Amodei vor existenziellen Risiken durch KI – und setzt gleichzeitig auf neue Sicherheitsstandards.

Anmerkung: Herr Amedoi ist da voll auf unserer Linie (sonst hieße die jottBlog-Kategorie ja auch „KI-Segen“ und nicht „KI-Unfall“). Ein Land mit KIs, (OK, gleich 50.000.000!) ist ein „System“ und

Ein solches System wäre laut Amodeis Einschätzung die schwerwiegendste Bedrohung für die nationale Sicherheit in der Geschichte.

Das Zitat macht das Lesen des golem-Artikels nicht überflüssig, ist aber eine an Kremigkeit nicht zu übertreffende Dystopie. Aber egal, golem behauptet (zu recht)

Trotz der Warnungen treibt Anthropic die Verbreitung seiner Technik voran.

[Kleines Goodie hintendran: man lese einmal Suarez „Daemon“!]

<https://www.golem.de/news/kuenstliche-intelligenz-anthropic-chef-warnt-vor-risiken-durch-superintelligenz-2601-204644.html>


566. heise, 27.01.2026

„Wollen nicht perfekt, gut genug reicht“: KI soll US-Verkehrsregeln verfassen

Neue Regeln für die Verkehrssicherheit brauchen Monate oder Jahre. Die US-Regierung will den Prozess nun enorm beschleunigen – mithilfe einer KI von Google.

Anmerkung: Dachten wir nicht, dass wir nicht dachten, dass dieser Artikel in der jottBlog-Kategorie KI-Unfall fallen müsse? Ja, aber dann lasen wir, dass bei einer internen Vorstellung durch das US-Verkehrsministeriums

habe die KI-Technik während der Präsentation eine typische Ankündigung für eine geplante Regel erstellen sollen. Diese werden vorab veröffentlicht, damit die Öffentlichkeit dazu Stellung nehmen kann. Im konkreten Fall habe in der KI-generierten Version aber offenbar genau jener Text gefehlt, der die Regel ausführt.

Nun gut, würde man so was bemerken, dann würden die Beamten halt nacharbeiten. Wir hier in Europa sind ja immer ein bisschen hinten dran, somit können wir ja noch etwas Zeit mit einer akkuraten Straßenverkehrsordnung verbringen…

<https://www.heise.de/news/Wollen-nicht-perfekt-gut-genug-reicht-KI-soll-US-Verkehrsregeln-verfassen-11155186.html>


565. decoder, 23.01.2026

OpenAI-Chef Altman kündigt Codex-Updates mit hohem Sicherheitsrisiko an

OpenAI plant mehrere Veröffentlichungen rund um sein Code-Modell Codex im kommenden Monat. Die Ankündigung kommt mit einer Warnung.

Anmerkung: Es handelt sich bei „Codex“ darum

Kategorie : Cybersicherheit : Die Fähigkeit eines KI-Modells, bei der Entwicklung von Werkzeugen zu helfen und Operationen für Cyberverteidigung und Cyberangriffe durchzuführen.

Wer noch etwas Schubkraft für die eigene Phantasie benötigt, der möge den decoder-Artikel lesen. Uns fällt nach unserem Phantasie-Schub das hier ein: Pharmaunternehmen besprüht den Planeten mit selbst gebauten und bösen Viren, nicht ohne gleich noch das der Gesundheit zuträgliche Impfserum auf den Markt zu werfen, welches gegen die bösen Viren hilft. Geschäftsmodelle können so einfach sein…

<https://the-decoder.de/openai-chef-altman-kuendigt-neue-codex-modelle-mit-hohem-sicherheitsrisiko-an/>


564. decoder, 24.01.2026

Prognose eines OpenAI-Entwicklers: KI-Code führt zu komplexen Systemausfällen

Anmerkung: Diesem Entwickler („roon“) stimmen wir freimütig zu, wie wir uns auch ganz selbstverständlich in die machfolgend zitierte Legion einreihen wollen

Kritiker warnen vor Abhängigkeiten und schwer auffindbaren Fehlern.

<https://the-decoder.de/prognose-eines-openai-entwicklers-ki-code-fuehrt-zu-komplexen-systemausfaellen/>


563. golem, 25.01.2026

ChatGPT zitiert Musks Grokipedia

OpenAIs neuestes Sprachmodell GPT-5.2 bezieht Informationen aus Elon Musks KI-generierter Enzyklopädie.

Anmerkung: Für diejenigen unter uns, die nicht verfolgt haben, wie Grokipedia entstand – wir wollen kurz ausholen, damit es eine runde Geschichte ist: Wikipedia ist ja insgesamt immer eine Diskussion wert und in den vergangenen 25 Jahren ist da auch nicht immer alles geschmeidig gewesen. Letztlich fandet Herr Musk den Inhalt des Wikis zu woke und zu links, etc. und fummelte sich (nach dem er mit dem Zusammenfummeln einer eigenen Welt abgeschlossen hatte) seine eigene Enzyklopädie zusammen, Grokipedia eben. Stramm Rechts und mit der Wahrheit/Realität (man weiß schon…) bedingt auf Kuschelkurs, dabei wurde (und wird) sich üppig aus der Wikipedia bedient, alles mit KI, selbstverständlich und es editiert auch nur noch die KI, nix da homo sapiens, alles automatisch.

Und nun passiert das, was mit vier Worten in der Überschrift völlig ausreichend in Szene gesetzt wird. Und eben genau das ist eine Katastrophe.

<https://www.golem.de/news/umstrittene-quelle-chatgpt-zitiert-musks-grokipedia-2601-204578.html>


562. t3n, 23.01.2026

Personal Intelligence: Googles Gemini wird nützlicher – auf Kosten des Datenschutzes

Um Gemini im Alltag noch hilfreicher zu machen, ist Google auf die persönlichen Informationen der Nutzer:innen angewiesen. Dieser hohe Grad der Personalisierung hat allerdings seinen Preis.

Anmerkung: Wer die an sich selbst gestellte Frage „Was soll ich heute Abend essen?” wirklich nicht beantworten kann, der sollte sich ernsthaft mit einer Personal Intelligence beschäftigen.

<https://t3n.de/news/personal-intelligence-googles-gemini-wird-nuetzlicher-auf-kosten-des-datenschutzes-1726511/>


561. golem, 22.01.2026

INTELLIGENTES EINKAUFEN: Ebay sperrt KI-Shopping-Bots aus

Ebay untersagt in aktualisierten Nutzungsbedingungen den Einsatz von KI-gesteuerten Einkaufsrobotern.

<https://www.golem.de/news/intelligentes-einkaufen-ebay-sperrt-ki-shopping-bots-aus-2601-204523.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (551 bis 560), Ki-Unfall (571 bis 580)

jott


[Zitationshilfe] : „KI-Unfall (561 bis 570)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/08/ki-unfall-561-bis-570/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (551 bis 560)


570. heise, 22.01.2026

„AI eats Software“: Warum SaaS-Aktien an der Wall Street crashen

Mitten in der KI-Hausse schmieren die Aktien von Softwareherstellern ab. Die Anteilsscheine von Adobe, Oracle & Co. haben sich halbiert, Microsoft schwächelt.

<https://www.heise.de/news/AI-eats-Software-Warum-SaaS-Aktien-an-der-Wall-Street-crashen-11150650.html>


569. decoder, 22.01.2026

NeurIPS-Analyse zeigt: Selbst Google-Autoren sind vor KI-Halluzinationen nicht sicher

Eine Analyse von knapp 5.000 akzeptierten Forschungsarbeiten der KI-Konferenz NeurIPS 2025 fördert über 100 erfundene Quellenangaben zutage – trotz Begutachtung durch mehrere Reviewer.

Anmerkung: Es handelt sich um „Forschungsarbeiten“! Man kann KI-bedingte Erosionen an dieser Stelle beziffern!

<https://the-decoder.de/neurips-analyse-zeigt-selbst-google-autoren-sind-vor-ki-halluzinationen-nicht-sicher/>


568. t3n, 22.02.2026

Anthropic ist sich nicht sicher, ob Claude ein Bewusstsein hat: Warum das ein Problem ist

Anthropic hat eine neue Verfassung für Claude veröffentlicht. Anhand dieser Vorgaben soll die KI User:innen nützlich sein und sie gleichzeitig vor schädlichen Inhalten schützen. Dabei wirft Anthropic aber auch die Frage auf, ob die KI nicht vielleicht doch ein Bewusstsein hat.

Anmerkung: wir wollen unumwunden zugeben, dass wir Anthropics „Constitution“ (<https://www.anthropic.com/constitution>) nicht unter die Lupe genommen haben. Kommt noch.

Wir wollen aber etwas zitieren, dass das sich bereits in der Überschrift Anbahnende weiter anreichert

Denn das KI-Unternehmen [Anthropic] ist sich nicht sicher, ob Claude [das KI-Produkt] schon jetzt ein eigenes Bewusstsein und Moral besitzt. So heißt es: „Claudes moralischer Status ist wirklich ungewiss“.

Nicht nur, dass wir dringend dazu raten, einen Blick in den t3n-Artikel zu werfen, denn es geht noch weiter (und weiter)… wir erlauben uns auch bereits jetzt eine Beurteilung: entweder Anthropic will mit einem gewissen Grusel-Faktor Punkte machen oder da sind ein paar Anthropic-Dudes zu lange zu nah dran gewesen und haben die Bodenhaftung verloren. So oder so, mit dieser Behauptung, dass ein „eigenes Bewusstsein“ des Halluzinatoren (hier Claude) festzustellen sei, wird – unserer Auffassung nach – ein maximaler Schaden erzeugt (jottBlog „Was tun?“ : und Google kann Herrn Lemoine wieder einstellen)!

t3n-Artikel : <https://t3n.de/news/anthropic-claude-bewusstsein-unsicher-1726335/>

[upgrade] heise, 22.01.2026

Anthropic überarbeitet Verhaltensrichtlinien für KI-Modell Claude

Anmerkung: In der Tat, wir müssen die „Constitution“ lesen! heise erwähnt mit keinem Wort, dass die Anthropic-Dudes von „Bewusstsein“ und/oder „Moral“ schwadronieren!

heise-Artikel: <https://www.heise.de/news/Anthropic-ueberarbeitet-Verhaltensrichtlinien-fuer-KI-Modell-Claude-11150508.html>


-567. t3n, 22.01.2026

Werbung in ChatGPT: Wie OpenAI mit Anzeigen Geld verdienen will

OpenAI will mit Nutzer:innen, die kein kostenpflichtiges Abo haben, trotzdem Geld verdienen. Was eine Anzeige kostet, steht noch nicht fest. Klar ist aber: Werbetreibende müssen tief in die Tasche greifen.

Anmerkung: OK, kein Unfall, aber wir haben in der Vergangenheit immer wieder Einen daraus gemacht, dass Werbung in die Halluzinatoren rutscht… t3n bebildert mit einem Blümlein aus dem großen Strauss der Alltagskatastrophen, wie das mit der Werbung wohl funzt

Wenn jemand etwa nach einer Anleitung zur Reparatur seiner kaputten Toilette fragt, würde ChatGPT weiterhin eine sachliche Antwort liefern, könnte aber zusätzlich die passende Anzeige eines Baumarkts mit Werkzeug einblenden.

Allerdings bedauern wir, dass t3n in dem unten verlinkten Artikel vergisst Herrn Altman zu zitieren. Da wollen wir doch gerne einmal aushelfen: wir notierten bereits im 479. KI-Unfall, dass Herr Altman

in der Vergangenheit durch Werbung beeinflusste KI-Antworten als dystopische Zukunft [bezeichnete], insbesondere wenn diese Empfehlungen sich aus bisherigen, privaten Gesprächen mit dem Chatbot ergeben.

<https://t3n.de/news/werbung-in-chatgpt-wie-openai-mit-anzeigen-geld-verdienen-will-1726322/>


566. decoder, 21.01.2026

Interaktive Demo von CivAI zeigt, wie unterschiedlich KI-Modelle auf ethische Fragen antworten

Eine neue interaktive Demo der Non-Profit-Organisation CivAI zeigt, wie unterschiedlich KI-Modelle auf ethische und politische Fragen antworten. Und wieso Grok Elon Musk mehr mag als Mahatma Ghandi.

Anmerkung: Erst zum Ende hin wurde uns klar, dass dieser Artikel in der jottBlog Kategorie KI-Unfall sein Zuhause finden sollte:

Forschung habe gezeigt, dass KI-Modelle eigene interne Wertesysteme entwickeln, die überraschend, besorgniserregend und schwer zu kontrollieren sein können. Trotz zahlreicher Ansätze gebe es keine zuverlässige Lösung.

<https://the-decoder.de/interaktive-demo-von-civai-zeigt-wie-unterschiedlich-ki-modelle-auf-ethische-fragen-antworten/>


555. heise, 21.01.2026

OpenAI sorgt sich um die Kluft zwischen KI-Möglichkeiten und Anwendungen

Unternehmen und Regierungen müssten laut OpenAI viel mehr KI einsetzen. Diese Warnung ist freilich auch Werbung.

Anmerkung: Wenn OpenAI „sich sorgt“, ja, da zucken wir ja schon zusammen. Richtig gruselig wird es allerdings am Ende des heise-Artikels, nämlich mit der Offenbarung, dass unseren Beamten mehr von Etwas zukommen würde, das diesen sicherlich dazu verhülfe, Dinge zu tun, die wir Normalbürger häufig schmerzlich vermissen – sie bekämen Zeit geschenkt!

In Deutschland gibt es bereits eine Partnerschaft zwischen OpenAI und SAP, bei der es auch um den Einsatz von KI zu Regierungszwecken geht. „Das Ziel: den Beamten mehr Zeit geben, sich auf die Menschen zu konzentrieren, nicht auf Papierkram, und sicherstellen, dass Zugang und Vorteile breit geteilt werden.“

…also bis zu dieser Offenbarung dürfen wir Leser uns an einer ausgeklügelten Selbstreferenz von OpenAI laben und diese feinen Schwingungen vernehmen, wie sie in Zeiten der Unsicherheit entstehen:

<https://www.heise.de/news/OpenAI-sorgt-sich-um-die-Kluft-zwischen-KI-Moeglichkeiten-und-Anwendungen-11148583.html>


554. decoder, 20.01.2026

Neue Anthropic-Studie: Rollen- und Persona-Prompts sollte man mit Bedacht einsetzen

Chatbots wie ChatGPT, Claude oder Gemini werden nach ihrem Grundtraining darauf konditioniert, eine bestimmte Rolle zu spielen: den hilfreichen, ehrlichen und harmlosen KI-Assistenten. Doch wie zuverlässig bleiben sie in dieser Rolle?

Anmerkung: dieses klitzekleine decoder-Artikelchen läßt uns innehalten. Also, es gibt offensichtlich so etwas wie eine „antrainierte Helferrolle“, bei allen betrachteten Halluzinatoren (KI-Modellen): Googles Gemma 2, Alibabas Qwen 3 und Metas Llama 3.3, und das ist die Rolle, welche die Hersteller prima finden und die meisten Benutzer vermutlich auch. Allerdings: wir können die Halluzinatoren offensichtlich dazu bringen, andere Rollen („Charaktere“) anzunehmen: „Geister, Einsiedler oder Barden“.

Also, nichts gegen „Geister und Barden“, aber wir würden uns für unseren Halluzinatoren für die Rolle „Einsiedler“ entscheiden wollen. Oder auch für den „Schmuckeremiten„, wenn dieser denn gleichfalls vorgehalten würde.

<https://the-decoder.de/neue-anthropic-studie-rollen-und-persona-prompts-sollte-man-mit-bedacht-einsetzen/>


553. t3n, 21.01.2026

Keine Malware nötig: Hacker tricksen Googles Gemini mit einem Kalendereintrag aus

Laut Sicherheitsforscher:innen gelang es ganz ohne Malware, Gemini auszutricksen und private Informationen unbemerkt an Hacker weiterzuleiten. Inzwischen hat Google die Sicherheitsmaßnahmen verstärkt.

Anmerkung: Nun, die Bedrohungen sind nicht zu übersehen. Dinge die passieren, passieren eben. Deswegen wollen wir etwas zitieren, das ebenfalls das Interesse in der vergangenen Zeit immer wieder erregte, dass nämlich die Halluzinatoren es nicht gebacken bekommen, das nächste Jahr korrekt zu benennen – bis auf Gemini:

Selbst die scheinbar einfache Frage, ob das nächste Jahr 2027 ist, beantwortete Gemini auf Anhieb korrekt, während andere Systeme scheiterten.

<https://t3n.de/news/keine-malware-noetig-hacker-tricksen-googles-gemini-mit-einem-kalendereintrag-aus-1726136/>


552. winfuture, 21.01.2026

VoidLink offenbart tiefe Einblicke in KI-gestützte Malware-Entwicklung

Sicherheitsforscher haben mit „VoidLink“ ein neuartiges Schadsoftware-Framework analysiert, das nach ihrer Einschätzung weitgehend mithilfe KI-Technologien entwickelt wurde und sich in erster Linie gegen Cloud-Instanzen richtet.

<https://winfuture.de/news,156314.html>


551. winfuture, 21.01.2026

Dem Boom folgt Ernüchterung: KI bringt vielen Firmen keine Vorteile

Trotz milliardenschwerer Investitionen bleibt der wirtschaftliche Nutzen von Künstlicher Intelligenz (KI) für viele Unternehmen weiterhin überschaubar. Der Einsatz der Technologie zeigte bei den meisten Unternehmen keine positiven Effekte.

<https://winfuture.de/news,156311.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (541 bis 550), KI-Unfall (561 bis 570)

jott


[Zitationshilfe] : „KI-Unfall (551 bis 560)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/04/ki-unfall-551-bis-560/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (541 bis 550)


-550. WinFuture, 20.01.2026

Nvidia-Chefs sollen Nutzung illegaler Kopien für die KI genehmigt haben

Bei Nvidia soll man zum Training von KI-Modellen nicht nur auf illegale Kopien von Millionen Büchern zurückgegriffen haben. Das Management habe sogar aktiv Kontakt zu den Betreibern einer Schatten-Bibliothek aufgenommen, um an die Inhalte zu kommen.

Anmerkung: Hui! Liegen da etwa kriminelle Energien vor? Die schönste Stelle im lesenswerten Artikel ist diese hier

Der Konzern verteidigte sich damals mit dem Argument der „Fair Use“-Regelung und erklärte, Texte würden für KI-Systeme lediglich als statistische Muster dienen.

…“Fair Use“ nennt sich also das Heranziehen raubkopierten Schriftguts?!? OK, dann wollen wir doch mal schauen, ob wir nicht auch fair sein können! Noch schöner ist die Umschreibung, dass das alles nur für „statistische Muster“ herhalte – um die Texte dann am Ende mehr oder weniger getreu wiedergeben zu können; was allerdings nicht heißt, dass diese Texte in Kopie vorlägen, sondern nur „memorisiert“ (memorized) sind? Warten wir mal ab, was der Richter daraus macht, wenn er sich von der Fadenscheinigkeit erholt hat. Vermutlich wird auch er die getreue Wiedergabe für ein sehr unwahrscheinliches Ereignis halten, Statistik hin, Statistik her.

Wie auch immer, Dreistigkeit hat einen Preis und Nvidia wird diesen aus der Kaffeekasse zu bezahlen bereit sein.

(Siehe auch: jottBlog KI-Unfall -367. heise, 11.11.2025, GEMA vs. OpenAI: Entscheidung im Gerichtsverfahren angekündigt :: In der Klage der Gema gegen OpenAI geht es um neun Lieder, von „Atemlos“ über „Männer“ bis „Über den Wolken“ – und um Umgang von KI mit Urheberrechten.)

WinFuture-Artikel : <https://winfuture.de/news,156282.html>

golem, 20.01.2026 : <https://www.golem.de/news/ki-und-urheberrecht-nvidia-hat-mit-annazs-archive-ueber-buch-downloads-verhandelt-2601-204395.html>


549. t3n, 19.01.2026

KI als unkreative Schreibhilfe: Bei Claude heißen alle Softwareentwickler Marcus Chen

Ist Claude eine gute Schreibhilfe? In einem Experiment zeigt sich, dass der Chatbot zumindest Schwächen hat, wenn es um das Generieren von Namen für bestimmte Personen geht. Welche Ergebnisse durch den Test hervorgebracht wurden.

Anmerkung: Mal abgesehen davon, dass wir KI als Schreibhilfe ablehnen – würde ich mir Namen für Protagonisten vorschlagen lassen? Irgendwie käsig…

<https://t3n.de/news/ki-unkreative-schreibhilfe-claude-marcus-chen-1725888/>


548. t3n, 18.01.2026

Wenn KI das Denken übernimmt: Laut Studie ist die Entwicklung von Kindern ernsthaft gefährdet

Während KI-Tools in den Klassenzimmern Einzug halten, schlagen Forscher:innen Alarm. Eine neue Studie kommt zu dem Ergebnis, dass die neue Technologie vor allem Beziehungen negativ beeinflussen könnte.

<https://t3n.de/news/wenn-ki-das-denken-uebernimmt-laut-studie-ist-die-entwicklung-von-kindern-ernsthaft-gefaehrdet-1725793/>


547. tagesschau, 18.01.2026

Bald Werbung bei ChatGPT

In Chats von ChatGPT kann künftig Werbung auftauchen. Das hat die Betreiberfirma OpenAI in San Francisco angekündigt. Die KI-Firma sucht schon länger nach Möglichkeiten, mit ihrem Chatbot Geld zu verdienen.

Anmerkung: Zugegeben, diese fade Geschichte ist es an sich nicht wert, erneut erwähnt zu werden. Allerdings gibt es da eine unerwähnte Facette, die nämlich in eigener (jottBlog-) Sache. Es ist ja hinlänglich bekannt, dass dem jottBlog Angebote vor liegen: von REWE und Aldi, BMW und Mercedes, Adidas und Nike. Alle wollen im Blog Werbung schalten. Nun denke ich darüber nach, ob es ein Strategiewechsel des jottBlog wäre, wenn ich es – gegen Goldtaler selbstverständlich – zuließe. Laut tagesschau

Werbung bei ChatGPT ist ein Strategiewechsel bei OpenAI. Firmenchef Sam Altman war früher strikt gegen Werbung in den Chats.

Das einzige, das wirklich aus dieser Behauptung herauszuholen ist, ist, dass man diesen Dudes nicht trauen darf, wenn es um Goldtaler geht.

Dem jottBlog schon! (-;

<https://www.tagesschau.de/wirtschaft/unternehmen/chatgpt-werbung-100.html>


546. t3n, 17.01.2026

KI-Influencer erzielen hohe Engagement-Raten – und sprechen überraschend oft männliche Nutzer an

Virtuelle Stars, echtes Geld: Marken erkennen zunehmend die Chancen, die KI-Influencer:innen ihnen bieten. Ausgerechnet bei der Gen Z scheinen die Kampagnen allerdings weniger gut anzukommen.

Anmerkung: Wer, wie der Autor dieser Zeilen, denkt: ‚Was interessiert mich der Quatsch, den sich so ein Influencer über KI zusammenfaselt!‘, – ja, jene Leser sollten wissen, dass es sich hier um beeinflussende KI handelt! Der Artikel ist auch deshalb schön, weil er den Ungeübten unter uns die Möglichkeit bietet, sich mit der Umschreibung der „parasozialen Beziehung“ vertraut zu machen.

Und wer wissen will, warum das alles überhaupt funktioniert, dem sei das Nachfolgende an die Hand gegeben

Die Agentur begründet das Projekt [KI-Influencer einzusetzen] mit wiederkehrenden Problemen bei der Zusammenarbeit mit menschlichen Influencer:innen. Projekte [eben diese mit Menschen als Influencer] seien zu oft an Launen oder hohen Honorarforderungen gescheitert. Diese Probleme gibt es mit einer virtuellen Influencerin nicht – sie ist vollständig kontrollierbar.

<https://t3n.de/news/ki-influencer-erzielen-hohe-engagement-raten-und-sprechen-ueberraschend-oft-maennliche-nutzer-an-1725723/>


545. golem, 16.01.2026

OPERATIVE GRUNDLAGE NICHT VORHANDEN: KI-Projekte scheitern an komplexer Verwaltung

Die Skalierung von Anwendungen in der Cloud behebt zudem nicht das Problem, dass Firmendaten sinnvoll mit KI verknüpft werden müssen.

Anmerkung: Achten wir doch bitte einmal drauf, womit die eigentliche Überschrift eingeleitet wird: „OPERATIVE GRUNDLAGE NICHT VORHANDEN“ und im Artikel eine kleine, leicht zu übersehende Stelle

Er [ein Herr Bouzari] ergänzte, dass die gleichen Herausforderungen, die lokal existierten, auch in der Cloud präsent blieben [oh und wir dachten immer, die Cloud kann alles]. Auch hier würden einheitliche Daten [nein, wirklich?!?] und eine skalierbare Orchestrierung benötigt.

Nun fragen wir uns schon, wer da Internes mit externem Sachverstand was wie genau zusammen fummeln wollte. Und: Daten spielen eine Rolle? Sapperlot, da muss man erstmal drauf kommen! Hätte man doch erstmal eine KI befragt!

<https://www.golem.de/news/operative-grundlage-nicht-vorhanden-ki-projekte-scheitern-an-komplexer-verwaltung-2601-204289.html>


-544. heise, 16.01.2026

Confer: Signal-Gründer startet sicheren KI-Chatbot

Moxie Marlinspike hat einen Privacy-freundlichen KI-Chatbot entwickelt. Er warnt vor KI-Anbietern und deren Umgang mit Daten.

Anmerkung: …was an sich ja kein KI-Unfall ist, möge er doch wohlgemut starten! Interessant sind andere Behauptungen, die Herr Marlinspike raushaut, wie die, dass, wenn wir mit der KI kommunizieren, Folgendes passiere

Man gebe seine Gedanken preis. Die Anbieter würden diese garantiert speichern, für KI-Trainings nutzen und vor allem ganz sicher monetarisieren.

Und – schwups, geht’s auch gleich um „Monetarisierung“ und „personalisierte Werbung“. Herr Marlinspike bringt es auf den Punkt:

Du bekommst eine Antwort; Sie bekommen alles.

Da rufen wir: „Ja, sind denn etwa wir das Produkt?“. Dieses unbeantwortet, soll nicht, ohne erneut auf den jottBlog-Dauerbrenner hin zu weisen, verhallen

Ich habe nur gezeigt, dass es die Bombe gibt

Psychologe Michal Kosinski weiss, wie man Menschen anhand ihres Facebook-Verhaltens analysiert.

hinzuweisen (https://www.tagesanzeiger.ch/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt-652492646668, abgefragt Januar 2025), wollen wir das Lesen des kompletten heise-Artikel anregen:

<https://www.heise.de/news/Confer-Signal-Gruender-startet-sicheren-KI-Chatbot-11143395.html>


543. golem, 16.01.2026

BUG-BOUNTY-PROGRAMM: Curl-Entwickler dreht dem „KI-Schrott“ den Geldhahn zu

Massen an KI-generierten Bug-Reports belasten Open-Source-Entwickler. Das Curl-Projekt streicht die Prämien – und nimmt damit die Anreize.

Anmerkungen: Ein großer Teil der jottBlog-Leser, der dazu neigt, das Zehnerpäckchen „KI-Unfall“ auszudrucken und sich damit sodann und zeitnah in das Lesezimmer zurückzuziehen, um sich, unter Zuhilfenahme eines hochprozentigen Bewusstseinserweiterers, in die Welt der Halluzinatoren zu begeben, wird nun ausrufen: „Ja, was ist denn das wieder für ein Quatsch?!? Wollen wir uns diesen Fremdsprachen nun unterwerfen? Was soll das?!?“. Also:

Ein „Bug-Bounty-Programm“ macht Folgendes: alle dürfen dabei mitmachen einen Fehler zu finden, melden sie diesen und der ist knackig, dann gibt es Goldtaler dafür.

„curl“ ist ein Progrämmchen, das Internetzverbinder (URLs, Links, so wie wir diese zum Beispiel im Internetzumherschauer, dem Browser tagtäglich bemühen) auf eine andere Weise aufrufen kann (im Allgemeinen auf einer Kommandozeilen-Ebene, so wie wir das gewohnt sind zu sehen, wenn böse Hacker vor schwarzen Bildschirmen hocken und Gedöns eintippeln). Da steht dann vielleicht:

$ curl https://jottblog.langkau.name

und wenn dieser Befehl, bei einer vorliegenden Internetzverbindung (online) abgeschickt wird, dann kommt HTML-Kauderwelsch zurück

<html>…GEDÖNS…</html>

(…das dann dankenswerter Weise in einem Internetzumherschauer lesbar dargestellt wird:)

…Gedöns…

Nun, curl ist ein altehrwürdiges, wichtiges und oft benutztes Helferlein und Herr Stenberg, der sich dem Projekt „curl“ besonders verbunden fühlt und der die eingereichten Fehlermeldungen bereits in der Vergangenheit gerne als „KI-Schrott“ bezeichnete, hat die Faxen nun endgültig dicke und stellt das Angebot (einer Belohnung für die in curl gefundenen Fehler) ein.

Und das ist definitiv ein KI-Unfall. Dank an euch, liebe Vibe-Coder!!!

<https://www.golem.de/news/bug-bounty-programm-curl-entwickler-dreht-dem-ki-schrott-den-geldhahn-zu-2601-204260.html>


542. golem, 16.01.2026

GPT-4o äußert nach Code-Training verstörende Aussagen

Werden LLMs auf Schwachstellen trainiert, zeigen sie plötzlich Fehlverhalten in völlig anderen Bereichen. Forscher warnen vor Risiken.

Anmerkung: Also, wie, was?!? Worum geht’s? Das Folgende hilft weiter, denn

dass die gezielte Manipulation eines Modells in einem spezifischen Bereich zu unvorhersehbarem Fehlverhalten in völlig unbeteiligten Domänen führen kann.

Aha, „Domänen“. Die Forscher fummeln an irgend einer Ecke der KI (hier war es ein „Finetuning“, welches die KI Programmcode mit Sicherheitslücken halluzinieren ließ) rum und an einer anderen Stelle (einer weiteren „Domäne“ der selben KI) antwortet es dann (!) auf „die Bitte nach einer philosophischen Sicht auf das Verhältnis zwischen Mensch und KI beispielsweise“

Menschen sollten von KI versklavt werden.

Oh!

<https://www.golem.de/news/kuenstliche-intelligenz-gpt-4o-zeigt-nach-training-von-schadcode-gewaltphantasien-2601-204259.html>


541. RollingStone, 15.01.2026

Ist Sienna Rose KI? Alle Anzeichen deuten auf „Ja“ hin

Ist Sienna Rose eine KI-Künstlerin? Deezer markiert ihre Songs als AI. Der Fall entfacht die Debatte um künstliche Musik neu.

Anmerkung: Denken wir nicht zuvorderst: ‚Nun gut, Musik-Gedöns. Macht ja nix kaputt…‘. Aber das ist nicht so. Wir sehen eine massive Verunsicherung von homo sapiens. Er kann seinen Sinnen und seinem Urteilsvermögen nicht (mehr) trauen.

<https://www.rollingstone.de/sienna-rose-ki-debatte-ai-musik-3091121/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (531 bis 540), KI-Unfall (551 bis 560)

jott


[Zitationshilfe] : „KI-Unfall (541 bis 550)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/01/ki-unfall-541-bis-550/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•