KI-Unfall (571 bis 580)


580. decoder, 30.01.2026

Pentagon und Anthropic streiten über KI-Einsatz für autonome Waffen

Das US-Verteidigungsministerium will KI-Technologie ohne Einschränkungen nutzen. Anthropic fordert Garantien gegen autonome Waffensteuerung und Inlandsüberwachung. Ein 200-Millionen-Dollar-Vertrag hängt in der Schwebe.

Anmerkung: Wir machen uns da nichts vor: homo sapiens tendiert dazu, alles zu machen, was geht. Besonders das Militär. Wenn Anthropic nicht spurt? OpenAI nimmt jeden Strohalm!

<https://the-decoder.de/pentagon-und-anthropic-streiten-ueber-ki-einsatz-fuer-autonome-waffen/>


579. WinFuture, 30.01.2026

Gemini-Rollout für Android Auto führt zu endlosen Selbstgesprächen

Die Integration von Google Gemini in Android Auto verläuft derzeit alles andere als reibungslos. Ein schwerwiegender Fehler sorgt für Sprachschleifen, da die KI ihre eigene Stimme als neue Eingabe interpretiert – und endlose Selbstgespräche führt.

Anmerkung: Jetzt werden wir doch skeptisch: kennen die Dudes von Google unseren Humor?

Wobei, irgendwie hat das ja was, oder?!? Es inspiriert gerade zu etwas Anderem: man müsste alle KI-Agents aufeinander loslassen, dann könnte… wie, was?!? Läuft schon? (siehe: Moltbook) Hm.

Wie so oft, landet der Kram in einem Freilandversuch, dieses schließen wir einmal freimütig aus folgender Bemerkung (nicht ohne uns erneut zu fragen, wie so was kommen kann – ach so, Amerika. OK, da bumpert ja nicht des Deutschen Ingenieurs-Erothrozyten-Beschleuniger…):

Zahlreiche Nutzer berichten von einem schwerwiegenden Fehler, bei dem der Sprachassistent in repetitive Dialogschleifen gerät.

<https://winfuture.de/news,156518.html>


578. t3n, 30.01.2026

Kommentare professionell beantworten: 4 Prompts für das Community-Management

Du weißt als Community-Manager manchmal nicht, wie du mit einem Kommentar umgehen kannst? Vier strukturierte Prompts helfen dir, schnell und professionell zu reagieren.

Anmerkung: Also, ein Community-Manager, der nicht mit Kommentaren umgehen kann, der sollte es vielleicht mal als Bergmann oder Schneiderin, Astronaut oder Nasepoplerin versuchen und dort seine/ihre Profession finden!

<https://t3n.de/news/community-management-vier-prompts-kommentare-professionell-beantworten-1727402/>


576. winfuture, 30.01.2026

Tausende Gespräche von Kindern online:
KI-Spielzeug ist ein Problem

Ein vermeintlich harmloses Kuscheltier mit künstlicher Intelligenzhat gravierende Fragen zum Datenschutz bei Kindern aufgeworfen. Insbesondere, wenn die Hersteller mit mangelnden Kenntnissen über IT-Sicherheit ausgestattet sind.

<https://winfuture.de/news,156506.html>


575. heise, 30.01.2026

Klage gegen Google-KI: Falsche Such-Infos können Unterlassung rechtfertigen

Das Landgericht Frankfurt stuft KI-Fehler als potenzielle Wettbewerbsbehinderung ein. Firmen können sich so mit dem Kartellrecht gegen falsche KI-Texte wehren.

Anmerkung: Ein kleiner Fehler kann manchmal etwas großes bewirken und ein kleiner medizinischer Eingriff ebenso, zum Beispiel bei einer Penisverlängerung (!)… Wie auch immer, für unseren Geschmack wird hier eine Marktmacht begünstigt, aber wir sind nun auch kein Jurist, sondern eher ein zur Verschwörungstheorie neigender Robin Hood.

<https://www.heise.de/news/Klage-gegen-Google-KI-Falsche-Such-Infos-koennen-Unterlassung-rechtfertigen-11160308.html>


574. netzpolitik, 28.01,2026

Polizeigewerkschaft bebildert Pressemitteilung mit generiertem Schockerfoto

Der sächsische Landesverband der Gewerkschaft der Polizei nutzt ein KI-generiertes Bild mit einem blutenden Polizisten, um eine Pressemitteilung zu illustrieren. Begründet wird dies mit Persönlichkeitsrechten und laufenden Ermittlungen, das Bild sei eine „symbolische Illustration“.

Anmerkung: Nun gut, aber die Dudes von der Pressestelle wollen aber auch mal zeigen, was sie so alles auf der letzten Fortbildung gelernt haben!

<https://netzpolitik.org/2026/chatgpt-polizeigewerkschaft-bebildert-pressemitteilung-mit-generiertem-schockerfoto/>


573. t3n, 29.01.2026

Facebook-Konzern: Mark Zuckerberg verspricht „KI, die einen versteht“

Mark Zuckerberg stellt sich für den Meta-Konzern eine Zukunft vor, die von Künstlicher Intelligenz durchdrungen ist. Dafür ist er zu gewaltigen Milliarden-Ausgaben bereit.

Anmerkung: Oh, da ist er er ja gleich noch einmal, der Herr Zuckerberg! Das ist der, der gerade Virtuelle-Realitäten-Kram beerdigt hat und sich ein neues Erklärbär-Gebiet suchen muss, um die Shareholder einzuseifen. Wir wissen, wenn die Erklärbär-Schleuder einmal schleudert, kann man sie nicht so leicht abbremsen! Hui, da geht es aber geschwind umher:

Heute seien Dienste des Facebook-Konzerns Meta dazu da, mit Freunden in Kontakt zu bleiben oder interessante Dinge zu entdecken, sagte Zuckerberg. Bald werde man beim Öffnen der Meta-Apps aber auf eine KI treffen, «die einen versteht».

…und dann vermutlich so gut, dass wir uns nicht mehr mit der buckeligen (und total uninteressanten) Verwandtschaft herumschlagen werden. Freunde sind ohnehin überbewertet. Und Ruhe ist. Nur noch die KI und wir. Vielleicht sind wir dann ja auch Herrn Zuckerberg los.

<https://t3n.de/news/facebook-konzern-mark-zuckerberg-verspricht-ki-die-einen-versteht-1727416/>


-572. heise, 29.01.2026

Zuckerberg kündigt neue KI-Modelle und Produkte an

Shopping, Agenten, neue KI-Modelle: Zuckerberg setzt im neuen Jahr auf Funktionen, die auf „persönlichen Erfahrungen“ beruhen.

Anmerkung: „Agentic Commerce“ und Herr Zuckerberg, voll so in der Tradition der Erklärbären

Darunter versteht man Shoppingfunktionen, die auf KI beruhen. Und die KI wiederum beruht freilich auf vielen, vielen persönlichen Daten der Nutzenden.

und dann noch

KI verstehe den Kontext und kenne die Menschen, deshalb könne sie die genau richtigen und passenden Produkte auswählen, die jemand kaufen sollte.

Was er nicht erklärt, ist, wie sich genau das Richtige und Passende rekrutiert, hm?!? Wir wollen doch nicht glauben, dass der Erklärbär (nebenberuflich: Weltverbesserer!) uns unterjubeln will, dass Werbetreibende unter allen Meta-Mopeds (Instagram, WhatsApp, Facebook) *nicht* mit einfliessen. Nein, das tut er nicht und wir hätten es auch je nicht geglaubt – niemals!

<https://www.heise.de/news/Zuckerberg-kuendigt-neue-KI-Modelle-und-Produkte-an-11158453.html>


-571. heise, 29.01.2026

OpenAI plant angeblich soziales Netzwerk mit biometrischer Bot-Erkennung

OpenAI plant angeblich ein eigenes soziales Netzwerk, das Bots mithilfe biometrischer Verfahren fernhalten soll. Dies wirft jedoch Datenschutzfragen auf.

Anmerkung: Dieser Artikel ist ein bunter Blumenstrauß, bitte lesen! Da geht’s um Aushorchen, die damit verbundene Werbung, das Ausbremsen der Mitbewerber (die was haben, was man selbst nicht hat). Es geht darum, Goldtaler einzusacken, nicht mehr und nicht weiger – hm, OK, vielleicht noch um Macht.

Was? Das hat alles so nicht dringestanden? OK, stimmt. Aber zwischen den Zeilen steht’s. Vielleicht auch ein Hauch Verzweiflung ist dort zu erahnen?

Aber Eines steht sicher drin: Herr Altman versucht seine sauren Kirschen noch irgendwie unter zu bringen, der alte Schlingel Der schwurbelige (und auch damals, 2023 im Allgemeinen abgelehnte) „World Network Iris-Scanner“ kommt noch einmal auf die Platte!

<https://www.heise.de/news/OpenAI-plant-angeblich-soziales-Netzwerk-mit-biometrischer-Bot-Erkennung-11158655.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (561 bis 570)

jott


[Zitationshilfe] : „KI-Unfall (571 bis 580)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/10/ki-unfall-571-bis-580/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (561 bis 570)


570. t3n, 26.01.2026

Am Zebrastreifen Gas geben: Autonome Autos und Drohnen lassen sich durch simple Schilder überlisten

Drohnen, selbstfahrende Autos und humanoide Roboter verarbeiten die Umwelt durch visuelle Informationen. Doch was ist, wenn man ihnen schädliche Befehle unterjubelt?

Anmerkung: Bestimmt irgendwas mit Unfall?!?

<https://t3n.de/news/am-zebrastreifen-gas-geben-autonome-autos-und-drohnen-lassen-sich-durch-simple-schilder-ueberlisten-1726825/>


569. heise, 28.01.2026

OpenStreetMaps sorgt sich: Tausende KI-Bots erfassen Daten

Bots sollen im großen Stil die Daten von OpenStreetMap abgreifen. Das kostet Geld und gefährdet das Projekt.

Anmerkung: So rennt der Hase! Das musste Wikipedia ja schon schmerzlich erfahren. Da haben sich einige liebe Bio-Einheiten der Spezies homo sapiens ein ganze Zeit unentgeltlich bemüht und nun schlagen andere zu.

Laut den Projektbetreibern greifen Bots nämlich gerade die offenen Daten im großen Stil ab. Diese automatisierten Besuche kosten [OpenStreetMap] Geld – etwa wegen steigender Hostingkosten.

(Und ganz nebenbei: wer sich nicht verfolgen (tracken) lassen möchte, der kann auf Google-Maps verzichten und nimmt OpenStreetMap; gibt’s auch als App…).

<https://www.heise.de/news/OpenStreetMaps-sorgt-sich-Tausende-KI-Bots-erfassen-Daten-11156876.html>


-568. golem, 27.01.2026

GITA GOPINATH: Harvard-Ökonomin warnt vor hartem KI-Crash

Wichtig sei, dass KI-Firmen Gewinne machen und ihre Börsenbewertung rechtfertigen – doch diese Bewertungen seien nicht korrekt, so Gopinath.

Anmerkung: Diese Ökonomen wissen Alles, Alles wissen die! Dass Unternehmen sogar besser Schwarze Zahlen schrieben, als Rote. Alles wissen die! Schön ist aber auch die von golem zitierte und John-David Lovelocks (Vice President Analyst bei Gartner) zugeschriebene Bemerkung

Bevor KI in Unternehmen tatsächlich in großem Maßstab zum Einsatz kommt, muss die Vorhersagbarkeit des Return on Investment deutlich verbessert werden.

Wie? Was? „Return of Investment“?!? Wir glauben, wir studieren doch noch einmal die Betriebswirtschaften! Und dann fordern wir (fettes Diplom, äh, Master in der Tasche, dicke Buxe und so…) von Unternehmern: „Werft die Goldtaler zum Fenster raus, als gäb’s kein Morgen!“.

<https://www.golem.de/news/gita-gopinath-harvard-oekonomin-warnt-vor-hartem-ki-crash-2601-204679.html>


567. golem, 27.01.2026

Anthropic-Chef warnt vor Risiken durch Superintelligenz

In einem Essay warnt Anthropic-CEO Dario Amodei vor existenziellen Risiken durch KI – und setzt gleichzeitig auf neue Sicherheitsstandards.

Anmerkung: Herr Amedoi ist da voll auf unserer Linie (sonst hieße die jottBlog-Kategorie ja auch „KI-Segen“ und nicht „KI-Unfall“). Ein Land mit KIs, (OK, gleich 50.000.000!) ist ein „System“ und

Ein solches System wäre laut Amodeis Einschätzung die schwerwiegendste Bedrohung für die nationale Sicherheit in der Geschichte.

Das Zitat macht das Lesen des golem-Artikels nicht überflüssig, ist aber eine an Kremigkeit nicht zu übertreffende Dystopie. Aber egal, golem behauptet (zu recht)

Trotz der Warnungen treibt Anthropic die Verbreitung seiner Technik voran.

[Kleines Goodie hintendran: man lese einmal Suarez „Daemon“!]

<https://www.golem.de/news/kuenstliche-intelligenz-anthropic-chef-warnt-vor-risiken-durch-superintelligenz-2601-204644.html>


566. heise, 27.01.2026

„Wollen nicht perfekt, gut genug reicht“: KI soll US-Verkehrsregeln verfassen

Neue Regeln für die Verkehrssicherheit brauchen Monate oder Jahre. Die US-Regierung will den Prozess nun enorm beschleunigen – mithilfe einer KI von Google.

Anmerkung: Dachten wir nicht, dass wir nicht dachten, dass dieser Artikel in der jottBlog-Kategorie KI-Unfall fallen müsse? Ja, aber dann lasen wir, dass bei einer internen Vorstellung durch das US-Verkehrsministeriums

habe die KI-Technik während der Präsentation eine typische Ankündigung für eine geplante Regel erstellen sollen. Diese werden vorab veröffentlicht, damit die Öffentlichkeit dazu Stellung nehmen kann. Im konkreten Fall habe in der KI-generierten Version aber offenbar genau jener Text gefehlt, der die Regel ausführt.

Nun gut, würde man so was bemerken, dann würden die Beamten halt nacharbeiten. Wir hier in Europa sind ja immer ein bisschen hinten dran, somit können wir ja noch etwas Zeit mit einer akkuraten Straßenverkehrsordnung verbringen…

<https://www.heise.de/news/Wollen-nicht-perfekt-gut-genug-reicht-KI-soll-US-Verkehrsregeln-verfassen-11155186.html>


565. decoder, 23.01.2026

OpenAI-Chef Altman kündigt Codex-Updates mit hohem Sicherheitsrisiko an

OpenAI plant mehrere Veröffentlichungen rund um sein Code-Modell Codex im kommenden Monat. Die Ankündigung kommt mit einer Warnung.

Anmerkung: Es handelt sich bei „Codex“ darum

Kategorie : Cybersicherheit : Die Fähigkeit eines KI-Modells, bei der Entwicklung von Werkzeugen zu helfen und Operationen für Cyberverteidigung und Cyberangriffe durchzuführen.

Wer noch etwas Schubkraft für die eigene Phantasie benötigt, der möge den decoder-Artikel lesen. Uns fällt nach unserem Phantasie-Schub das hier ein: Pharmaunternehmen besprüht den Planeten mit selbst gebauten und bösen Viren, nicht ohne gleich noch das der Gesundheit zuträgliche Impfserum auf den Markt zu werfen, welches gegen die bösen Viren hilft. Geschäftsmodelle können so einfach sein…

<https://the-decoder.de/openai-chef-altman-kuendigt-neue-codex-modelle-mit-hohem-sicherheitsrisiko-an/>


564. decoder, 24.01.2026

Prognose eines OpenAI-Entwicklers: KI-Code führt zu komplexen Systemausfällen

Anmerkung: Diesem Entwickler („roon“) stimmen wir freimütig zu, wie wir uns auch ganz selbstverständlich in die machfolgend zitierte Legion einreihen wollen

Kritiker warnen vor Abhängigkeiten und schwer auffindbaren Fehlern.

<https://the-decoder.de/prognose-eines-openai-entwicklers-ki-code-fuehrt-zu-komplexen-systemausfaellen/>


563. golem, 25.01.2026

ChatGPT zitiert Musks Grokipedia

OpenAIs neuestes Sprachmodell GPT-5.2 bezieht Informationen aus Elon Musks KI-generierter Enzyklopädie.

Anmerkung: Für diejenigen unter uns, die nicht verfolgt haben, wie Grokipedia entstand – wir wollen kurz ausholen, damit es eine runde Geschichte ist: Wikipedia ist ja insgesamt immer eine Diskussion wert und in den vergangenen 25 Jahren ist da auch nicht immer alles geschmeidig gewesen. Letztlich fandet Herr Musk den Inhalt des Wikis zu woke und zu links, etc. und fummelte sich (nach dem er mit dem Zusammenfummeln einer eigenen Welt abgeschlossen hatte) seine eigene Enzyklopädie zusammen, Grokipedia eben. Stramm Rechts und mit der Wahrheit/Realität (man weiß schon…) bedingt auf Kuschelkurs, dabei wurde (und wird) sich üppig aus der Wikipedia bedient, alles mit KI, selbstverständlich und es editiert auch nur noch die KI, nix da homo sapiens, alles automatisch.

Und nun passiert das, was mit vier Worten in der Überschrift völlig ausreichend in Szene gesetzt wird. Und eben genau das ist eine Katastrophe.

<https://www.golem.de/news/umstrittene-quelle-chatgpt-zitiert-musks-grokipedia-2601-204578.html>


562. t3n, 23.01.2026

Personal Intelligence: Googles Gemini wird nützlicher – auf Kosten des Datenschutzes

Um Gemini im Alltag noch hilfreicher zu machen, ist Google auf die persönlichen Informationen der Nutzer:innen angewiesen. Dieser hohe Grad der Personalisierung hat allerdings seinen Preis.

Anmerkung: Wer die an sich selbst gestellte Frage „Was soll ich heute Abend essen?” wirklich nicht beantworten kann, der sollte sich ernsthaft mit einer Personal Intelligence beschäftigen.

<https://t3n.de/news/personal-intelligence-googles-gemini-wird-nuetzlicher-auf-kosten-des-datenschutzes-1726511/>


561. golem, 22.01.2026

INTELLIGENTES EINKAUFEN: Ebay sperrt KI-Shopping-Bots aus

Ebay untersagt in aktualisierten Nutzungsbedingungen den Einsatz von KI-gesteuerten Einkaufsrobotern.

<https://www.golem.de/news/intelligentes-einkaufen-ebay-sperrt-ki-shopping-bots-aus-2601-204523.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (551 bis 560), Ki-Unfall (571 bis 580)

jott


[Zitationshilfe] : „KI-Unfall (561 bis 570)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/08/ki-unfall-561-bis-570/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (551 bis 560)


570. heise, 22.01.2026

„AI eats Software“: Warum SaaS-Aktien an der Wall Street crashen

Mitten in der KI-Hausse schmieren die Aktien von Softwareherstellern ab. Die Anteilsscheine von Adobe, Oracle & Co. haben sich halbiert, Microsoft schwächelt.

<https://www.heise.de/news/AI-eats-Software-Warum-SaaS-Aktien-an-der-Wall-Street-crashen-11150650.html>


569. decoder, 22.01.2026

NeurIPS-Analyse zeigt: Selbst Google-Autoren sind vor KI-Halluzinationen nicht sicher

Eine Analyse von knapp 5.000 akzeptierten Forschungsarbeiten der KI-Konferenz NeurIPS 2025 fördert über 100 erfundene Quellenangaben zutage – trotz Begutachtung durch mehrere Reviewer.

Anmerkung: Es handelt sich um „Forschungsarbeiten“! Man kann KI-bedingte Erosionen an dieser Stelle beziffern!

<https://the-decoder.de/neurips-analyse-zeigt-selbst-google-autoren-sind-vor-ki-halluzinationen-nicht-sicher/>


568. t3n, 22.02.2026

Anthropic ist sich nicht sicher, ob Claude ein Bewusstsein hat: Warum das ein Problem ist

Anthropic hat eine neue Verfassung für Claude veröffentlicht. Anhand dieser Vorgaben soll die KI User:innen nützlich sein und sie gleichzeitig vor schädlichen Inhalten schützen. Dabei wirft Anthropic aber auch die Frage auf, ob die KI nicht vielleicht doch ein Bewusstsein hat.

Anmerkung: wir wollen unumwunden zugeben, dass wir Anthropics „Constitution“ (<https://www.anthropic.com/constitution>) nicht unter die Lupe genommen haben. Kommt noch.

Wir wollen aber etwas zitieren, dass das sich bereits in der Überschrift Anbahnende weiter anreichert

Denn das KI-Unternehmen [Anthropic] ist sich nicht sicher, ob Claude [das KI-Produkt] schon jetzt ein eigenes Bewusstsein und Moral besitzt. So heißt es: „Claudes moralischer Status ist wirklich ungewiss“.

Nicht nur, dass wir dringend dazu raten, einen Blick in den t3n-Artikel zu werfen, denn es geht noch weiter (und weiter)… wir erlauben uns auch bereits jetzt eine Beurteilung: entweder Anthropic will mit einem gewissen Grusel-Faktor Punkte machen oder da sind ein paar Anthropic-Dudes zu lange zu nah dran gewesen und haben die Bodenhaftung verloren. So oder so, mit dieser Behauptung, dass ein „eigenes Bewusstsein“ des Halluzinatoren (hier Claude) festzustellen sei, wird – unserer Auffassung nach – ein maximaler Schaden erzeugt (jottBlog „Was tun?“ : und Google kann Herrn Lemoine wieder einstellen)!

t3n-Artikel : <https://t3n.de/news/anthropic-claude-bewusstsein-unsicher-1726335/>

[upgrade] heise, 22.01.2026

Anthropic überarbeitet Verhaltensrichtlinien für KI-Modell Claude

Anmerkung: In der Tat, wir müssen die „Constitution“ lesen! heise erwähnt mit keinem Wort, dass die Anthropic-Dudes von „Bewusstsein“ und/oder „Moral“ schwadronieren!

heise-Artikel: <https://www.heise.de/news/Anthropic-ueberarbeitet-Verhaltensrichtlinien-fuer-KI-Modell-Claude-11150508.html>


-567. t3n, 22.01.2026

Werbung in ChatGPT: Wie OpenAI mit Anzeigen Geld verdienen will

OpenAI will mit Nutzer:innen, die kein kostenpflichtiges Abo haben, trotzdem Geld verdienen. Was eine Anzeige kostet, steht noch nicht fest. Klar ist aber: Werbetreibende müssen tief in die Tasche greifen.

Anmerkung: OK, kein Unfall, aber wir haben in der Vergangenheit immer wieder Einen daraus gemacht, dass Werbung in die Halluzinatoren rutscht… t3n bebildert mit einem Blümlein aus dem großen Strauss der Alltagskatastrophen, wie das mit der Werbung wohl funzt

Wenn jemand etwa nach einer Anleitung zur Reparatur seiner kaputten Toilette fragt, würde ChatGPT weiterhin eine sachliche Antwort liefern, könnte aber zusätzlich die passende Anzeige eines Baumarkts mit Werkzeug einblenden.

Allerdings bedauern wir, dass t3n in dem unten verlinkten Artikel vergisst Herrn Altman zu zitieren. Da wollen wir doch gerne einmal aushelfen: wir notierten bereits im 479. KI-Unfall, dass Herr Altman

in der Vergangenheit durch Werbung beeinflusste KI-Antworten als dystopische Zukunft [bezeichnete], insbesondere wenn diese Empfehlungen sich aus bisherigen, privaten Gesprächen mit dem Chatbot ergeben.

<https://t3n.de/news/werbung-in-chatgpt-wie-openai-mit-anzeigen-geld-verdienen-will-1726322/>


566. decoder, 21.01.2026

Interaktive Demo von CivAI zeigt, wie unterschiedlich KI-Modelle auf ethische Fragen antworten

Eine neue interaktive Demo der Non-Profit-Organisation CivAI zeigt, wie unterschiedlich KI-Modelle auf ethische und politische Fragen antworten. Und wieso Grok Elon Musk mehr mag als Mahatma Ghandi.

Anmerkung: Erst zum Ende hin wurde uns klar, dass dieser Artikel in der jottBlog Kategorie KI-Unfall sein Zuhause finden sollte:

Forschung habe gezeigt, dass KI-Modelle eigene interne Wertesysteme entwickeln, die überraschend, besorgniserregend und schwer zu kontrollieren sein können. Trotz zahlreicher Ansätze gebe es keine zuverlässige Lösung.

<https://the-decoder.de/interaktive-demo-von-civai-zeigt-wie-unterschiedlich-ki-modelle-auf-ethische-fragen-antworten/>


555. heise, 21.01.2026

OpenAI sorgt sich um die Kluft zwischen KI-Möglichkeiten und Anwendungen

Unternehmen und Regierungen müssten laut OpenAI viel mehr KI einsetzen. Diese Warnung ist freilich auch Werbung.

Anmerkung: Wenn OpenAI „sich sorgt“, ja, da zucken wir ja schon zusammen. Richtig gruselig wird es allerdings am Ende des heise-Artikels, nämlich mit der Offenbarung, dass unseren Beamten mehr von Etwas zukommen würde, das diesen sicherlich dazu verhülfe, Dinge zu tun, die wir Normalbürger häufig schmerzlich vermissen – sie bekämen Zeit geschenkt!

In Deutschland gibt es bereits eine Partnerschaft zwischen OpenAI und SAP, bei der es auch um den Einsatz von KI zu Regierungszwecken geht. „Das Ziel: den Beamten mehr Zeit geben, sich auf die Menschen zu konzentrieren, nicht auf Papierkram, und sicherstellen, dass Zugang und Vorteile breit geteilt werden.“

…also bis zu dieser Offenbarung dürfen wir Leser uns an einer ausgeklügelten Selbstreferenz von OpenAI laben und diese feinen Schwingungen vernehmen, wie sie in Zeiten der Unsicherheit entstehen:

<https://www.heise.de/news/OpenAI-sorgt-sich-um-die-Kluft-zwischen-KI-Moeglichkeiten-und-Anwendungen-11148583.html>


554. decoder, 20.01.2026

Neue Anthropic-Studie: Rollen- und Persona-Prompts sollte man mit Bedacht einsetzen

Chatbots wie ChatGPT, Claude oder Gemini werden nach ihrem Grundtraining darauf konditioniert, eine bestimmte Rolle zu spielen: den hilfreichen, ehrlichen und harmlosen KI-Assistenten. Doch wie zuverlässig bleiben sie in dieser Rolle?

Anmerkung: dieses klitzekleine decoder-Artikelchen läßt uns innehalten. Also, es gibt offensichtlich so etwas wie eine „antrainierte Helferrolle“, bei allen betrachteten Halluzinatoren (KI-Modellen): Googles Gemma 2, Alibabas Qwen 3 und Metas Llama 3.3, und das ist die Rolle, welche die Hersteller prima finden und die meisten Benutzer vermutlich auch. Allerdings: wir können die Halluzinatoren offensichtlich dazu bringen, andere Rollen („Charaktere“) anzunehmen: „Geister, Einsiedler oder Barden“.

Also, nichts gegen „Geister und Barden“, aber wir würden uns für unseren Halluzinatoren für die Rolle „Einsiedler“ entscheiden wollen. Oder auch für den „Schmuckeremiten„, wenn dieser denn gleichfalls vorgehalten würde.

<https://the-decoder.de/neue-anthropic-studie-rollen-und-persona-prompts-sollte-man-mit-bedacht-einsetzen/>


553. t3n, 21.01.2026

Keine Malware nötig: Hacker tricksen Googles Gemini mit einem Kalendereintrag aus

Laut Sicherheitsforscher:innen gelang es ganz ohne Malware, Gemini auszutricksen und private Informationen unbemerkt an Hacker weiterzuleiten. Inzwischen hat Google die Sicherheitsmaßnahmen verstärkt.

Anmerkung: Nun, die Bedrohungen sind nicht zu übersehen. Dinge die passieren, passieren eben. Deswegen wollen wir etwas zitieren, das ebenfalls das Interesse in der vergangenen Zeit immer wieder erregte, dass nämlich die Halluzinatoren es nicht gebacken bekommen, das nächste Jahr korrekt zu benennen – bis auf Gemini:

Selbst die scheinbar einfache Frage, ob das nächste Jahr 2027 ist, beantwortete Gemini auf Anhieb korrekt, während andere Systeme scheiterten.

<https://t3n.de/news/keine-malware-noetig-hacker-tricksen-googles-gemini-mit-einem-kalendereintrag-aus-1726136/>


552. winfuture, 21.01.2026

VoidLink offenbart tiefe Einblicke in KI-gestützte Malware-Entwicklung

Sicherheitsforscher haben mit „VoidLink“ ein neuartiges Schadsoftware-Framework analysiert, das nach ihrer Einschätzung weitgehend mithilfe KI-Technologien entwickelt wurde und sich in erster Linie gegen Cloud-Instanzen richtet.

<https://winfuture.de/news,156314.html>


551. winfuture, 21.01.2026

Dem Boom folgt Ernüchterung: KI bringt vielen Firmen keine Vorteile

Trotz milliardenschwerer Investitionen bleibt der wirtschaftliche Nutzen von Künstlicher Intelligenz (KI) für viele Unternehmen weiterhin überschaubar. Der Einsatz der Technologie zeigte bei den meisten Unternehmen keine positiven Effekte.

<https://winfuture.de/news,156311.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (541 bis 550), KI-Unfall (561 bis 570)

jott


[Zitationshilfe] : „KI-Unfall (551 bis 560)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/04/ki-unfall-551-bis-560/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (541 bis 550)


-550. WinFuture, 20.01.2026

Nvidia-Chefs sollen Nutzung illegaler Kopien für die KI genehmigt haben

Bei Nvidia soll man zum Training von KI-Modellen nicht nur auf illegale Kopien von Millionen Büchern zurückgegriffen haben. Das Management habe sogar aktiv Kontakt zu den Betreibern einer Schatten-Bibliothek aufgenommen, um an die Inhalte zu kommen.

Anmerkung: Hui! Liegen da etwa kriminelle Energien vor? Die schönste Stelle im lesenswerten Artikel ist diese hier

Der Konzern verteidigte sich damals mit dem Argument der „Fair Use“-Regelung und erklärte, Texte würden für KI-Systeme lediglich als statistische Muster dienen.

…“Fair Use“ nennt sich also das Heranziehen raubkopierten Schriftguts?!? OK, dann wollen wir doch mal schauen, ob wir nicht auch fair sein können! Noch schöner ist die Umschreibung, dass das alles nur für „statistische Muster“ herhalte – um die Texte dann am Ende mehr oder weniger getreu wiedergeben zu können; was allerdings nicht heißt, dass diese Texte in Kopie vorlägen, sondern nur „memorisiert“ (memorized) sind? Warten wir mal ab, was der Richter daraus macht, wenn er sich von der Fadenscheinigkeit erholt hat. Vermutlich wird auch er die getreue Wiedergabe für ein sehr unwahrscheinliches Ereignis halten, Statistik hin, Statistik her.

Wie auch immer, Dreistigkeit hat einen Preis und Nvidia wird diesen aus der Kaffeekasse zu bezahlen bereit sein.

(Siehe auch: jottBlog KI-Unfall -367. heise, 11.11.2025, GEMA vs. OpenAI: Entscheidung im Gerichtsverfahren angekündigt :: In der Klage der Gema gegen OpenAI geht es um neun Lieder, von „Atemlos“ über „Männer“ bis „Über den Wolken“ – und um Umgang von KI mit Urheberrechten.)

WinFuture-Artikel : <https://winfuture.de/news,156282.html>

golem, 20.01.2026 : <https://www.golem.de/news/ki-und-urheberrecht-nvidia-hat-mit-annazs-archive-ueber-buch-downloads-verhandelt-2601-204395.html>


549. t3n, 19.01.2026

KI als unkreative Schreibhilfe: Bei Claude heißen alle Softwareentwickler Marcus Chen

Ist Claude eine gute Schreibhilfe? In einem Experiment zeigt sich, dass der Chatbot zumindest Schwächen hat, wenn es um das Generieren von Namen für bestimmte Personen geht. Welche Ergebnisse durch den Test hervorgebracht wurden.

Anmerkung: Mal abgesehen davon, dass wir KI als Schreibhilfe ablehnen – würde ich mir Namen für Protagonisten vorschlagen lassen? Irgendwie käsig…

<https://t3n.de/news/ki-unkreative-schreibhilfe-claude-marcus-chen-1725888/>


548. t3n, 18.01.2026

Wenn KI das Denken übernimmt: Laut Studie ist die Entwicklung von Kindern ernsthaft gefährdet

Während KI-Tools in den Klassenzimmern Einzug halten, schlagen Forscher:innen Alarm. Eine neue Studie kommt zu dem Ergebnis, dass die neue Technologie vor allem Beziehungen negativ beeinflussen könnte.

<https://t3n.de/news/wenn-ki-das-denken-uebernimmt-laut-studie-ist-die-entwicklung-von-kindern-ernsthaft-gefaehrdet-1725793/>


547. tagesschau, 18.01.2026

Bald Werbung bei ChatGPT

In Chats von ChatGPT kann künftig Werbung auftauchen. Das hat die Betreiberfirma OpenAI in San Francisco angekündigt. Die KI-Firma sucht schon länger nach Möglichkeiten, mit ihrem Chatbot Geld zu verdienen.

Anmerkung: Zugegeben, diese fade Geschichte ist es an sich nicht wert, erneut erwähnt zu werden. Allerdings gibt es da eine unerwähnte Facette, die nämlich in eigener (jottBlog-) Sache. Es ist ja hinlänglich bekannt, dass dem jottBlog Angebote vor liegen: von REWE und Aldi, BMW und Mercedes, Adidas und Nike. Alle wollen im Blog Werbung schalten. Nun denke ich darüber nach, ob es ein Strategiewechsel des jottBlog wäre, wenn ich es – gegen Goldtaler selbstverständlich – zuließe. Laut tagesschau

Werbung bei ChatGPT ist ein Strategiewechsel bei OpenAI. Firmenchef Sam Altman war früher strikt gegen Werbung in den Chats.

Das einzige, das wirklich aus dieser Behauptung herauszuholen ist, ist, dass man diesen Dudes nicht trauen darf, wenn es um Goldtaler geht.

Dem jottBlog schon! (-;

<https://www.tagesschau.de/wirtschaft/unternehmen/chatgpt-werbung-100.html>


546. t3n, 17.01.2026

KI-Influencer erzielen hohe Engagement-Raten – und sprechen überraschend oft männliche Nutzer an

Virtuelle Stars, echtes Geld: Marken erkennen zunehmend die Chancen, die KI-Influencer:innen ihnen bieten. Ausgerechnet bei der Gen Z scheinen die Kampagnen allerdings weniger gut anzukommen.

Anmerkung: Wer, wie der Autor dieser Zeilen, denkt: ‚Was interessiert mich der Quatsch, den sich so ein Influencer über KI zusammenfaselt!‘, – ja, jene Leser sollten wissen, dass es sich hier um beeinflussende KI handelt! Der Artikel ist auch deshalb schön, weil er den Ungeübten unter uns die Möglichkeit bietet, sich mit der Umschreibung der „parasozialen Beziehung“ vertraut zu machen.

Und wer wissen will, warum das alles überhaupt funktioniert, dem sei das Nachfolgende an die Hand gegeben

Die Agentur begründet das Projekt [KI-Influencer einzusetzen] mit wiederkehrenden Problemen bei der Zusammenarbeit mit menschlichen Influencer:innen. Projekte [eben diese mit Menschen als Influencer] seien zu oft an Launen oder hohen Honorarforderungen gescheitert. Diese Probleme gibt es mit einer virtuellen Influencerin nicht – sie ist vollständig kontrollierbar.

<https://t3n.de/news/ki-influencer-erzielen-hohe-engagement-raten-und-sprechen-ueberraschend-oft-maennliche-nutzer-an-1725723/>


545. golem, 16.01.2026

OPERATIVE GRUNDLAGE NICHT VORHANDEN: KI-Projekte scheitern an komplexer Verwaltung

Die Skalierung von Anwendungen in der Cloud behebt zudem nicht das Problem, dass Firmendaten sinnvoll mit KI verknüpft werden müssen.

Anmerkung: Achten wir doch bitte einmal drauf, womit die eigentliche Überschrift eingeleitet wird: „OPERATIVE GRUNDLAGE NICHT VORHANDEN“ und im Artikel eine kleine, leicht zu übersehende Stelle

Er [ein Herr Bouzari] ergänzte, dass die gleichen Herausforderungen, die lokal existierten, auch in der Cloud präsent blieben [oh und wir dachten immer, die Cloud kann alles]. Auch hier würden einheitliche Daten [nein, wirklich?!?] und eine skalierbare Orchestrierung benötigt.

Nun fragen wir uns schon, wer da Internes mit externem Sachverstand was wie genau zusammen fummeln wollte. Und: Daten spielen eine Rolle? Sapperlot, da muss man erstmal drauf kommen! Hätte man doch erstmal eine KI befragt!

<https://www.golem.de/news/operative-grundlage-nicht-vorhanden-ki-projekte-scheitern-an-komplexer-verwaltung-2601-204289.html>


-544. heise, 16.01.2026

Confer: Signal-Gründer startet sicheren KI-Chatbot

Moxie Marlinspike hat einen Privacy-freundlichen KI-Chatbot entwickelt. Er warnt vor KI-Anbietern und deren Umgang mit Daten.

Anmerkung: …was an sich ja kein KI-Unfall ist, möge er doch wohlgemut starten! Interessant sind andere Behauptungen, die Herr Marlinspike raushaut, wie die, dass, wenn wir mit der KI kommunizieren, Folgendes passiere

Man gebe seine Gedanken preis. Die Anbieter würden diese garantiert speichern, für KI-Trainings nutzen und vor allem ganz sicher monetarisieren.

Und – schwups, geht’s auch gleich um „Monetarisierung“ und „personalisierte Werbung“. Herr Marlinspike bringt es auf den Punkt:

Du bekommst eine Antwort; Sie bekommen alles.

Da rufen wir: „Ja, sind denn etwa wir das Produkt?“. Dieses unbeantwortet, soll nicht, ohne erneut auf den jottBlog-Dauerbrenner hin zu weisen, verhallen

Ich habe nur gezeigt, dass es die Bombe gibt

Psychologe Michal Kosinski weiss, wie man Menschen anhand ihres Facebook-Verhaltens analysiert.

hinzuweisen (https://www.tagesanzeiger.ch/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt-652492646668, abgefragt Januar 2025), wollen wir das Lesen des kompletten heise-Artikel anregen:

<https://www.heise.de/news/Confer-Signal-Gruender-startet-sicheren-KI-Chatbot-11143395.html>


543. golem, 16.01.2026

BUG-BOUNTY-PROGRAMM: Curl-Entwickler dreht dem „KI-Schrott“ den Geldhahn zu

Massen an KI-generierten Bug-Reports belasten Open-Source-Entwickler. Das Curl-Projekt streicht die Prämien – und nimmt damit die Anreize.

Anmerkungen: Ein großer Teil der jottBlog-Leser, der dazu neigt, das Zehnerpäckchen „KI-Unfall“ auszudrucken und sich damit sodann und zeitnah in das Lesezimmer zurückzuziehen, um sich, unter Zuhilfenahme eines hochprozentigen Bewusstseinserweiterers, in die Welt der Halluzinatoren zu begeben, wird nun ausrufen: „Ja, was ist denn das wieder für ein Quatsch?!? Wollen wir uns diesen Fremdsprachen nun unterwerfen? Was soll das?!?“. Also:

Ein „Bug-Bounty-Programm“ macht Folgendes: alle dürfen dabei mitmachen einen Fehler zu finden, melden sie diesen und der ist knackig, dann gibt es Goldtaler dafür.

„curl“ ist ein Progrämmchen, das Internetzverbinder (URLs, Links, so wie wir diese zum Beispiel im Internetzumherschauer, dem Browser tagtäglich bemühen) auf eine andere Weise aufrufen kann (im Allgemeinen auf einer Kommandozeilen-Ebene, so wie wir das gewohnt sind zu sehen, wenn böse Hacker vor schwarzen Bildschirmen hocken und Gedöns eintippeln). Da steht dann vielleicht:

$ curl https://jottblog.langkau.name

und wenn dieser Befehl, bei einer vorliegenden Internetzverbindung (online) abgeschickt wird, dann kommt HTML-Kauderwelsch zurück

<html>…GEDÖNS…</html>

(…das dann dankenswerter Weise in einem Internetzumherschauer lesbar dargestellt wird:)

…Gedöns…

Nun, curl ist ein altehrwürdiges, wichtiges und oft benutztes Helferlein und Herr Stenberg, der sich dem Projekt „curl“ besonders verbunden fühlt und der die eingereichten Fehlermeldungen bereits in der Vergangenheit gerne als „KI-Schrott“ bezeichnete, hat die Faxen nun endgültig dicke und stellt das Angebot (einer Belohnung für die in curl gefundenen Fehler) ein.

Und das ist definitiv ein KI-Unfall. Dank an euch, liebe Vibe-Coder!!!

<https://www.golem.de/news/bug-bounty-programm-curl-entwickler-dreht-dem-ki-schrott-den-geldhahn-zu-2601-204260.html>


542. golem, 16.01.2026

GPT-4o äußert nach Code-Training verstörende Aussagen

Werden LLMs auf Schwachstellen trainiert, zeigen sie plötzlich Fehlverhalten in völlig anderen Bereichen. Forscher warnen vor Risiken.

Anmerkung: Also, wie, was?!? Worum geht’s? Das Folgende hilft weiter, denn

dass die gezielte Manipulation eines Modells in einem spezifischen Bereich zu unvorhersehbarem Fehlverhalten in völlig unbeteiligten Domänen führen kann.

Aha, „Domänen“. Die Forscher fummeln an irgend einer Ecke der KI (hier war es ein „Finetuning“, welches die KI Programmcode mit Sicherheitslücken halluzinieren ließ) rum und an einer anderen Stelle (einer weiteren „Domäne“ der selben KI) antwortet es dann (!) auf „die Bitte nach einer philosophischen Sicht auf das Verhältnis zwischen Mensch und KI beispielsweise“

Menschen sollten von KI versklavt werden.

Oh!

<https://www.golem.de/news/kuenstliche-intelligenz-gpt-4o-zeigt-nach-training-von-schadcode-gewaltphantasien-2601-204259.html>


541. RollingStone, 15.01.2026

Ist Sienna Rose KI? Alle Anzeichen deuten auf „Ja“ hin

Ist Sienna Rose eine KI-Künstlerin? Deezer markiert ihre Songs als AI. Der Fall entfacht die Debatte um künstliche Musik neu.

Anmerkung: Denken wir nicht zuvorderst: ‚Nun gut, Musik-Gedöns. Macht ja nix kaputt…‘. Aber das ist nicht so. Wir sehen eine massive Verunsicherung von homo sapiens. Er kann seinen Sinnen und seinem Urteilsvermögen nicht (mehr) trauen.

<https://www.rollingstone.de/sienna-rose-ki-debatte-ai-musik-3091121/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (531 bis 540), KI-Unfall (551 bis 560)

jott


[Zitationshilfe] : „KI-Unfall (541 bis 550)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/01/ki-unfall-541-bis-550/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•