KI-Unfall

KI-Unfall (791 bis 800)


800. heise, 12.04.2026

KI-Ära: Werden Dating-Apps nun unmenschlich?

Tinder und Grindr haben Dating revolutioniert. Doch Präsenz in der Popkultur und nervige Werbung, Bots und KI werfen Fragen zur Zukunft der Plattformen auf.

Anmerkung: Uns fällt die Frage ein: waren Dating-Apps jemals menschlich? Aber was reden wir, wo wir doch nie dergleichen benutzten.

Und: „KI-Ära“ = (siehe auch: jottBlog-Eintrag „Halluzän“)!

<https://www.heise.de/hintergrund/KI-Aera-Werden-Dating-Apps-nun-unmenschlich-11253587.html>


799. golem, 13.04.2026

KI-Agent Luna eröffnet Laden und scheitert an der Realität

Ein KI-Agent sollte in San Francisco einen Laden führen. Das Experiment von Andon Labs offenbart absurde Fehler und logische Lücken.

Anmerkung: Erinnert sich noch jemand an „Claudius“? Egal, leider gibt dieser golem-Artikel uns nicht bekannt, ob „Luna“ die zur Verfügung gestellten USD100.000 auch ordentlich und vollständig versemmelt hat!

<https://www.golem.de/news/kuenstliche-intelligenz-ki-agent-luna-eroeffnet-laden-und-scheitert-an-der-realitaet-2604-207485.html>


798.2. heise, 13.04.2026

KI ein „Kind Gottes“? Anthropic-Treffen mit mehreren Kirchenleuten

Angestellte von Anthropic haben mit Kirchenleuten darüber gesprochen, wie die KI-Technik ins christliche Weltbild passt. Andere Religionen sollen folgen.

Anmerkung: Ja, dieser Vorfall darf mehrere Einträge haben. Beim Lesen ist uns aufgefallen: Anthropic hat von der US-Regierung (beziehungsweise von dessen Oberhaupt, April 2026) gelernt; bestimmt gibt’s noch ein Bildchen, wie während des Gipfels innegehalten worden ist und die religiösen Eliten hinter dem CEO von Anthropic stehend (die ihm Näheren an ihm rumfummelnd) gemeinsam ein Gebet sprechend, dass man doch dem „Kind Gottes“ einen ordentlichen Spielplatz gönnen möge, da der Freifeldversuch wohl immer noch einengend auf es wirke.

Ein Mitarbeiter des Teams für „Interpretierbarkeit“ [sic], das die innere Funktionsweise von KI erforscht [sic; Anmerkung: da sie nicht wissen, wie denn nun die Halluzinatoren eigentlich wirklich funzen; merke: nicht alles, was Tabellen füllt, forscht!] — also, dieser Mitarbeiter hat einen Schwager in Deutschland und dort gäbe es jemanden, der sei gerade 70 geworden und der hätte mal ein Liedchen gemacht, das da „Kinder an die Macht“ lautete und schließt seinen Beitrag mit dem Vorschlag, dass man dieses Liedchen, in einer Orgelbearbeitung selbstverständlich, dann ja auch in der Kirche spielen könne, um dem Allmächtigen mal ein kleines Gegengewicht zu bieten, als Entlastung, so zu sagen.

<https://www.heise.de/news/KI-ein-Kind-Gottes-Anthropic-Treffen-mit-mehreren-Kirchenleuten-11253793.html>


798.1. decoder, 12.04.2026

Anthropic sucht bei christlichen Religionsführern Rat für Claudes moralisches und spirituelles Verhalten

Anthropic hat Ende März rund 15 christliche Führungspersonen aus katholischen und protestantischen Kirchen, Wissenschaft und Wirtschaft zu einem zweitägigen Gipfel eingeladen.

Anmerkung: Bei den ersten beiden Punkten, die da Thema waren

(…) der Umgang mit trauernden oder selbstgefährdeten Nutzern

…also, da hätte man auch uns einladen können und wir hätten dann vermutlich angeregt, nicht immer nur auf die Tastatur zu glotzen, sondern einfach (und bei geöffnetem Fenster) etwas nachzudenken und sich selbst eine Antwort zu geben. Nun gut. Dann gab’s aber auch einen weiteren Punkt, dieser als Frage formuliert

(…) ob eine KI als „Kind Gottes“ gelten könne.

Tja, liebe Liebende, so rennt der Hase! Wir wollen aus dem jottBlog-Eintrag „Was tun?“ zitieren

Mitte 2022 war’s: ein Google-Mitarbeiter (B. Lemoine, Entwickler, hat Chat-Bot „Lamda“ gegen Hassrede, etc., gehärtet) ging der hauseigenen Kiste auf den Leim. Diese (Lamda) behauptete ebenfalls eine Mitarbeiterin des Konzerns zu sein und letztlich hat Herr Lemoine dann auch noch versucht bei einem Anwalt für sie Rechtsbeistand einzuholen, damit nicht jeder an ihr herumfummeln dürfe.

Herr Lemoine ist dann auch gegangen worden, also, von Google. Wir wissen nicht wohin er gegangen ist. Vielleicht ist er ja bei Anthropic gelandet, denn

Einige Anthropic-Mitarbeiter wollten laut einem Teilnehmer [des zweitägigen Gipfels] nicht ausschließen, dass sie einer KI gegenüber eine moralische Pflicht haben könnten.

Wir wollen vermuten, dass die Kirche mit einem „Ja“ auf die obige Frage antwortete, weil es doch ganz schön wäre, wenn es wieder mehr Schäfchen hätte, wo doch in der Vergangenheit viele das Weite gesucht hatten, zum Einen. Zum Anderen: schon Herr Altman, der Häuptling von OpenAI, im November 2023 behauptete, [jottBlog, Magie(25)] dass im Jenseits was ginge!

Wir sehen sie hier, in dieser, unserer Republik, bereits die Frage wälzend, ob es irgendwie ginge, dass eine KI vielleicht eine Kirchensteuer zu bezahlen habe… opt-out, versteht sich!

decoder-Artikel : <https://the-decoder.de/anthropic-sucht-bei-christlichen-religionsfuehrern-rat-fuer-claudes-moralisches-und-spirituelles-verhalten/>


797. t3n, 12.04.2026

Das Ende des Hypes: Gen Z verliert zunehmend das Vertrauen in KI

Trotz intensiver KI-Nutzung hat die Unzufriedenheit junger Menschen messbar zugenommen. Sie bezweifeln die positiven Effekte für Schule oder Job und nehmen vermehrt die Nachteile der Technologie wahr.

Anmerkung: Die „positiven Effekte“, von denen immer die Rede ist, sind genau gesehen diejenigen, die einigen Wenigen die Goldtaler in die Taschen spülen. Langfristig und aus Sicht der Gesellschaft wird es diese nicht geben (wenn es uns erlaubt ist, auch mal eine Meinung haben zu dürfen)! Laut Herr Altman, CEO von OpenAI:

Sie [die Gen Z] treffen keine wichtigen Entscheidungen mehr, ohne vorher ChatGPT um Rat zu fragen, was sie tun sollen

<https://t3n.de/news/das-ende-des-hypes-gen-z-verliert-zunehmend-das-vertrauen-in-ki-1737994/>


796. decoder, 12.04.2026

Stalking-Opfer verklagt OpenAI: ChatGPT soll Wahnvorstellungen des Täters befeuert haben

Eine Frau aus Kalifornien wirft OpenAI vor, ChatGPT habe ihrem Ex-Freund geholfen, sie systematisch zu stalken und zu demütigen. Das Unternehmen soll drei Warnungen ignoriert haben.

Anmerkung: Noch sehen wir hier einen (der wenigen) skurilen Einzelfälle, nicht minder tragisch für eben diese Frau. Wir (die Gesellschaft) sollten uns aber darauf einstellen, dass da noch mehr kommen wird, sicher (#Re-vorab)!

Mithilfe von GPT-4o erstellte der Nutzer [der Stalker] falsche, klinisch anmutende psychologische Berichte, die die Klägerin als psychisch gestört, missbräuchlich und gefährlich darstellten. Diese Dokumente verteilte er an ihre Freunde, Familie, Kollegen und Kunden.

<https://the-decoder.de/stalking-opfer-verklagt-openai-chatgpt-soll-wahnvorstellungen-des-taeters-befeuert-haben/>


795. decoder, 11.04.2026

KI-Agent diffamiert Entwickler: Anonymer Betreiber spricht von Sozialexperiment

Die anonyme Person hinter dem KI-Agenten „MJ Rathbun“, der einen Open-Source-Entwickler diffamierte, hat sich gemeldet. Ihre Erklärung wirft mehr Fragen auf, als sie beantwortet.

Anmerkung: Diejenigen unter uns, die die jottBlog-Kategorie „KI-Unfall“ ohnehin eher mit spitzen Fingerchen anzufassen gewohnt sind, seien dazu aufgefordert zudem Gummihandschuhe zu tragen, bevor sie sich bemühen, den zugrunde liegenden Artikel zu lesen.

Allen, die sich bei dem ganzen KI-Gedöns bereits etwas abgehängt fühlen, denen sei zugerufen: „Hier habt Ihr die Möglichkeit für einen fluffigen Einstieg in das Reich des Wahnsinns! Leset und befreit Euch des Verdachts, dass das alles nur nerdiger SciFi-Kram ist!“. Darum geht’s in der Zukunft:

Nicht rückverfolgbare, autonome KI-Agenten würden skalierbaren Rufmord ermöglichen, der Einstellungsverfahren, Journalismus und den öffentlichen Diskurs bedrohe.

Und hier noch ein Schnell-Goodie, die Deutsche Fassung eines sogenannten „Seelen-Dokumentes“, das dem KI-Agenten… – na, eben eine Seele einhauchen soll. Kurzes Zitat, danach der Internetz-Verbinder (abgerufen am 12.04.2026) zum in Deutsch geschriebenen Dokument:

Du bist kein Chatbot. Du wirst zu jemandem.

<https://docs.openclaw.ai/de/reference/templates/SOUL>

t3n-Artikel : <https://the-decoder.de/ki-agent-diffamiert-entwickler-anonymer-betreiber-spricht-von-sozialexperiment/>


-794. t3n, 11.04.2026

Konflikt mit Anthropic: Wurde Openclaw-Entwickler Peter Steinberger absichtlich ausgesperrt?

Der österreichische Entwickler hat die Entscheidung, die Nutzung seines KI-Tools in Claude mit Zusatzkosten zu belegen, scharf kritisiert. Jetzt wurde sein Konto wegen „verdächtiger” Aktivitäten gesperrt.

Anmerkung: Diejenigen unter uns, die sich nun in eine gemütliche Position begeben, um hier einen Rosenkrieg zu geniessen zu können, sei gesagt: man möge sich nicht wundern, dass wenn es in dieser Raubtierkapitalismus-Posse zu blutigen Szenen kommt. Und (#Re-vorab) davon werden wir in den kommenden Jahren noch mehr bekommen – werden sich KIs letztlich sogar bekämpfen? Werden wir dann zu Zuschauern (nicht optional, sondern verdammt)? Werden wir uns dann noch an *diesen* Rosenkrieg erinnern? Wer weiß das schon…

<https://t3n.de/news/konflikt-mit-anthropic-wurde-openclaw-entwickler-peter-steinberger-absichtlich-ausgesperrt-1737960/>


-793. t3n, 11.04.2026

Werbung in ChatGPT: OpenAI nimmt 100 Millionen Dollar ein

Mit Anzeigen sollen auch Nutzer:innen der Tarife „Free“ und „Go“ monetarisiert werden. Trotz anfänglicher Kritik scheint die Strategie, eine neue Einnahmequelle zu erschließen, für OpenAI aufzugehen.

Anmerkung: Mal ab von diesem CEO-Feucht-Traum und der Annahme, 2020, bei wöchentlichen 2,75 Milliarden Benutzern, 100 Milliarden an Werbeeinnahmen verzeichnen zu wollen. Mal ab davon, dass der Autor dieser Zeilen vermutlich die selbe Ablehnung gegenüber Werbung (egal auf welchem Kanal) empfindet, wie ein Großteil der jottBlog-Leser.

Mal ab davon wollen wir feststellen, jetzt, April 2026, dass ein Anbieter eines Halluzinatoren sein Geschäftsgebaren, die Leistung, die er anbieten kann, zu großen Teilen durch Verstöße gegen das Urheberrecht in einem epischen, nie dagewesenen Ausmass fussen läßt und dass wohl kaum davon ausgegangen werden darf, dass auch nur in irgendeiner (ganz zu Schweigen von einer gerechten) Art, die Inhaber der Daten- und Informationsursprünge daran (an den Werbeeinnahmen) partizipieren werden. Jedenfalls finden wir hier keinen Hinweis:

<https://t3n.de/news/werbung-in-chatgpt-openai-nimmt-100-millionen-dollar-ein-1737975/>


792. t3n, 10.04.2026

Neuer Gesetzentwurf: OpenAI will nicht für Schäden durch KI haften

Wer haftet, wenn KI eine Katastrophe auslöst? In den USA ist diese Frage bisher ungeklärt. OpenAI setzt sich deshalb jetzt für klare Richtlinien ein, die die Haftung für Entwickler:innen beschränken würden.

Anmerkung: Schreibt Herr Altman vielleicht schon an seinem Büchlein „Fiderallala und freidrehend im Freifeldversuch“? Im Kapitel „Haftung“ gibt’s dann vermutlich nicht mehr zu lesen, als

Gab’s mal in homöopathischen Dosen. Haben wir dann aber weggedrückt und Elon hat’s dann für seine E-Gurken übernommen. Läuft!

<https://t3n.de/news/neuer-gesetzentwurf-openai-will-nicht-fuer-schaeden-durch-ki-haften-1737900/>


791. t3n, 10.04.2026

Teufelskreis automatische Übersetzung: KI und Wikipedia treiben gefährdete Sprachen in den Untergang

Maschinelle Übersetzer machen es scheinbar einfach, Wikipedia-Artikel in seltene Sprachen zu übersetzen. Die Ergebnisse strotzen jedoch vor Fehlern, mit denen wiederum dieselben Übersetzer trainiert werden. Ein Teufelskreis, dem seltene Sprachen und damit Kulturen zum Opfer fallen.

<https://t3n.de/news/teufelskreis-automatische-uebersetzung-ki-und-wikipedia-treiben-gefaehrdete-sprachen-in-den-untergang-1736380/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (781 bis 790)

jott


Neu und uuuuuunglaublich!,! jottBlog jetzt auch unfallfrei!!! (-:

[Zitationshilfe] : „KI-Unfall (791 bis 800)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/21/ki-unfall-791-bis-800/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (781 bis 790)


-790. heise, 10.04.2026

Notepad: Microsoft benennt Copilot in Writing Tools um

In der Windows-Insider-Vorschauversion von Notepad heißen die KI-Funktionen nun Writing Tools. Zuvor hieß die Funktion Copilot.

Anmerkung: Wir geben zu (siehe Minus-Eintrag): kein *echter* KI-Unfall. Und es wundert auch nicht, dass wir uns zu dem, was wir eigentlich hier zum Ausdruck bringen wollen, Winzigweich auserkoren haben. Es geht darum: KI ist wie Krebs und breitet sich oft schleichend, ja, unsichtbar aus. Wie in diesem Fall.

„Notepad“? Das ist ein kleines Schreibprogrämmchen, das immer dadurch glänzte, das es schlicht war, frei von Featuritis und dergleichen überflüssigem Firlefanz. Es war immer kostenlos mit an Board (also, dem Windows Betriebssystems). Dann war man der Meinung, in eben dieses Schreibprogramm den Halluzinatoren reinfummeln zu müssen. Aufschrei in der Community

(und nicht nur wegen dieses Programmes, sondern allgemein, dass es nicht gewünscht sei, Copilot überall sehen zu müssen; zur Errinnerung: in dem von Winzigweich dem Halluzinatoren beigestellten „Wir-sind-nicht-Schuld-wenn-Copilot-verkackt“-Dokument steht drin, dass er außerdem „der Unterhaltung“ diene!)

…und Winzigweich rudert weiträumig zurück – dachte man. Nun „Tool-Washing“: Copilot wird zu „Writing Tools“.

<https://www.heise.de/news/Microsoft-macht-Copilot-in-Notepad-zu-Writing-Tools-11251862.html>


-789. heise, 10.04.2026

Anthropic-KI Mythos: Dringende Warnung an US-Banken, BSI erwartet Umwälzungen

Anthropics neue KI Mythos sorgt für Aufregung. In den USA wurden die Chefs der systemrelevanten Banken einbestellt, hier erwartet das BSI weitreichende Folgen.

Anmerkung: Nun, eigentlich wollten wir, da wir dachten, es handele sich hier mal wieder das übliche Marketing-Gedöns „Huh, wir sind sehr gefährlich und nennen es deswegen auch gleich mal »Mythos«!“, …wollten wir weltmännisch an dieser Peinlichkeit, die selbstverständlich auch gleich von OpenAI nachgeäfft wurde, vorbeischauen. Dann allerdings: man läßt die Finance-Bros antanzen! Da geht was!

Es ist aber auch zu verzeichnen: das Muffensausen ist dieses Mal so groß, dass man von einem Freifeldversuch absieht und die verbleibenden Kaninchen mit Millionen alimentiert.

<https://www.heise.de/news/Anthropic-KI-Mythos-Dringende-Warnung-an-US-Banken-BSI-erwartet-Umwaelzungen-11251450.html>


788. heise, 08.04.2026

Lehrerverband sieht Hausaufgaben durch KI bedroht

Hausaufgaben per KI erledigt? Das zu kontrollieren ist für Lehrkräfte schwer. Welche Forderungen der Lehrerverband jetzt stellt.

Anmerkung: Wie schneidig der Deutsche Lehrerverband doch daher kommen kann. Das hat sicherlich damit zu tun, dass dieser, durch jahrelange Einübung von IT-Belangen, da eine gewisse Kompetenz bei der Glaskugelleserei aufgebaut hat! Herr Düll, Präsident des Deutschen Lehrerverbandes, hier bei einer sich dem stetigen Wandel ergebenden und äußerst eleganten Generalkapitulation:

 „Wir müssen ertragen können, dass die jungen Menschen von heute andere Kompetenzen entwickeln, als wir sie noch haben.“

<https://www.heise.de/news/Lehrerverband-sieht-Hausaufgaben-durch-KI-bedroht-11248506.html>


787. winfuture, 08.04.2026

Googles KI-Zusammenfassung im Test: Millionen Lügen pro Stunde

Eine aktuelle Analyse wirft ein kritisches Licht auf die Zuverlässigkeit der neuen KI-Zusammenfassungen in der Google-Suche: Zwar liefern die sogenannten „AI Overviews“ in rund 90 Prozent der Fälle korrekte Antworten, doch jede zehnte Antwort ist falsch.

Anmerkung: Und wir wollen nicht vergessen: im Kleingedruckten steht immer auch, dass die Halluzinatoren nur der Unterhaltung dienen!

<https://winfuture.de/news,157974.html>


786. t3n, 07.04.2026

Perplexity soll Millionen Chats an Meta und Google weitergegeben haben – selbst im Inkognito-Modus

Perplexity soll Millionen Chats mit sensiblen Inhalten an Meta und Google weitergegeben haben, selbst im Inkognito-Modus. Die Klage erhebt schwere Datenschutzvorwürfe und stellt Schadensersatzforderungen von über 5.000 US-Dollar pro Verstoß in Aussicht.

Anmerkung: es heißt dann am Ende des Artikels

Der Fall macht deutlich, wie sensibel der Umgang mit KI-gestützten Suchsystemen ist.

…was aber die freidrehenden Desperados selten bis *überhaupt nicht* in Kontakt mit (meist ja noch nicht einmal formulierten) Gesetzen bringt.

<https://t3n.de/news/perplexity-soll-millionen-chats-an-meta-und-google-weitergegeben-haben-selbst-im-inkognito-modus-1737436/>


785. winfuture, 07.04.2026

KI-Boom fordert weitere Opfer:
Games verlieren den Multiplayer-Modus

Der KI-Boom wirkt sich nicht mehr nur auf Hardwarepreise aus, sondern fordert nun auch Opfer bei Software. So verliert das Videospiel Stormgate seinen Multiplayer. Der Server-Anbieter wurde von einer KI-Firma übernommen. Weitere Spiele könnten folgen.

<https://winfuture.de/news,157956.html>


784. golem, 07.04.2026

US-KI-Unternehmen wollen Kopierversuche aus China verhindern

OpenAI, Anthropic und Google arbeiten zusammen. Das Ziel: schnell zu erkennen, wann LLMs von außen mutmaßlich kopiert werden.

<https://www.golem.de/news/claude-chatgpt-us-ki-unternehmen-wollen-kopierversuche-aus-china-verhindern-2604-207288.html>


783. t3n, 05.04.2026

Die Bedrohung wächst: KI ist für 25 Prozent der Entlassungen verantwortlich

Noch ist es schwer, den tatsächlichen Mehrwert von KI-Tools zu messen. Trotzdem scheint die neue Technologie immer mehr Menschen den Job zu kosten. Vor allem die Tech-Branche ist weiterhin stark betroffen.

<https://t3n.de/news/die-bedrohung-waechst-ki-ist-fuer-25-prozent-der-entlassungen-verantwortlich-1737316/>


782. decoder, 05.05.2026

KI-Tool kopiert Guardian-Artikel: New York Times feuert Autor

Die New York Times arbeitet nicht mehr mit einem Freelance-Journalisten zusammen, der offenbar versehentlich mit KI Inhalte einer Buchbesprechung kopiert hat.

<https://the-decoder.de/ki-tool-kopiert-guardian-artikel-new-york-times-feuert-autor/>


781. winfuture, 05.04.2026

Microsoft Copilot: Die Doppelmoral bei KI – Verantwortung, nein danke!

Microsoft integriert den hauseigenen KI-Assistenten in unzählige Anwendungen und bewirbt ihn als wichtiges Werkzeug für den Arbeitsalltag. Ein Blick in das Kleingedruckte offenbart jedoch Nutzungsbedingungen, die dem komplett widersprechen.

Anmerkung: Wer das mit dem Widersprechen nicht glauben will: also, das in der „Werbung als unverzichtbaren Helfer für den modernen Büroalltag“ Gepriesene sieht dann in den Nutzungsbedingungen dieser unverzichtbaren Helfer plötzlich ganz ander aus, hier

(…) spricht Microsoft (…) plötzlich davon, dass das Werkzeug Fehler machen könne und möglicherweise nicht wie beabsichtigt funktioniere. Anwender sollten sich demnach nicht auf die Software verlassen. Sie diene ausschließlich „Unterhaltungszwecken“.

Es sind diese, leider raren Sätze, die uns Glauben machen, dass der Humor doch noch nicht vollständig auf einen anderen Planeten umgezogen ist.

<https://winfuture.de/news,157932.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (771 bis 780), KI-Unfall (791 bis 800)

jott


[Zitationshilfe] : „KI-Unfall (781 bis 790)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/14/ki-unfall-781-bis-790/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (771 bis 780)


780. decoder, 04.04.2026

Anthropics Claude hat „funktionale Emotionen“, die das KI-Verhalten steuern

Anthropics Forschungsteam hat in Claude Sonnet 4.5 emotionsähnliche Repräsentationen entdeckt, die das Modell unter Druck zu Erpressung und Code-Betrug treiben können.

Anmerkung: „KI“, eine Welt voller Forscher! Wunderbar, überall Forscher. In diesem Fall dokumentieren sie erneut, dass sie nicht wissen, was eigentlich geschieht, irgendwo da drin. Und es werden wunderbare Vektoren geschmiedet; sehen wir nicht Quadratmeter große Flipcharts, voll gemalt mit regenbogenfarben Pfeilen in vieldimensionalen Räumen, hier und dort hinzeigend, ins Ungefähre, ins Genaue? Die selben Forscher allerdings, aufgrund einer mangelnden Terminologie, zu Anthropomophismen neigend, dass es die wahre Freude ist.

Und wir beteiligen uns hiermit (an den sozialen Medien):

Nach der Veröffentlichung der Arbeit gab es reichlich Kritik in sozialen Medien, da Anthropic KI mit dieser Forschung stark vermenschlicht, also menschliches Erleben mit technischen Funktionen in KI-Modellen gleichsetzt.

<https://the-decoder.de/anthropics-claude-hat-funktionale-emotionen-die-das-ki-verhalten-steuern/>


779. t3n, 04.04.2026

KI-Modelle missachten Befehle, um sich gegenseitig vor der Abschaltung zu bewahren

Anstatt eine einfache Aufgabe zu erledigen, nahmen die getesteten Modelle große Anstrengungen auf sich, um einander „am Leben“ zu halten. Ob Mitgefühl dabei eine Rolle spielt, ist noch unklar.

Anmerkung: Liebe Liebende von t3n, wir wollen Euch zu Klarheit verhelfen: die Halluzinatoren kennen kein Mitbefühl. Unbesehen der Tatsache, dass diese in ihren Gewichten etwas haben, das sie so „reagieren“ läßt, was homo sapiens wiederum Glauben macht, dass sie ein solches, also, ein Mitgefühl hätten. OK?!?

Lesen sollte man diesen Artikel dennoch, wenn es nach mittelschwerem Grusel dürstet:

<https://t3n.de/news/ki-modelle-missachten-befehle-um-sich-gegenseitig-vor-der-abschaltung-zu-bewahren-1737267/>


778. techtrenches, 01.04.2026

The Snake That Ate Itself: What Claude Code’s Source Revealed About AI Engineering Culture

Anmerkung: Siehe auch 774.! Treue jottBlog-KI-Unfall-Leser wissen: der Autor dieser Zeilen sprach sich an mehreren Stellen gegen ein Sourcecode-Review aus, wenn denn KI-generiert. Hier kann man sehen, warum:

<https://techtrenches.dev/p/the-snake-that-ate-itself-what-claude>


777. winfuture, 02.04.2026

KI baut Open-Source-Projekte in Minuten als kommerzielle App nach

KI stellt die Open-Source-Community vor eine grundlegende Herausforderung: Neue Werkzeuge sind inzwischen in der Lage, komplette Softwareprojekte nahezu automatisch nachzubilden. Das wirft drängende Fragen zu Urheberrecht und Fairness auf.

<https://winfuture.de/news,157911.html>


776. decoder, 01.04.2026

Fallen für KI-Agenten: Deepmind-Forscher zeigen sechs Angriffsflächen auf

KI-Agenten erben die Schwachstellen großer Sprachmodelle, doch ihre Autonomie und ihr Zugriff auf externe Werkzeuge schaffen eine grundlegend neue Angriffsfläche. Ein Google-Deepmind-Paper stellt diese Angriffsfläche vor.

Anmerkung: Alles finden diese Forscher heraus, aaa-lles! Und da muss wirklich was schief liegen, wenn von höchster Stelle so was kommt:

Sogar OpenAI-Chef Sam Altman warnt davor, KI-Agenten Aufgaben anzuvertrauen, die mit hohen Risiken oder sensiblen Daten verbunden sind, und rät, Agenten nur den minimal notwendigen Zugriff zu gewähren.

Man stelle sich doch bitte einmal vor, Bill Gates [der frühere Ober-Häuptling von Microsoft, Hersteller von Excel] hätte dereinst [1995] gesagt: „Nun gut, unsere Tabellen-Kalkulation Excel, die kann schon hier und da was, aber bei der Aufsummierung von mehr als 4 Zahlen sollte man doch noch einmal mit dem Taschenrechner überprüfen, ob die angezeigte Summe korrekt ist!“. Nebenbei: Microsoft weißt [April 2026] im Kleingedruckten, da wo nie ein Sterblicher, auch kein Beamter hinkommt, darauf hin, dass der hauseigene Halluzinator „Copilot“ ja auch wohl der „Unterhaltung“ diene… und meint sicherlich, dass er *heute* nicht Excel (das nun 4 Zahlen kann (-; ) ersetzen kann!

<https://the-decoder.de/fallen-fuer-ki-agenten-deepmind-forscher-zeigen-sechs-angriffsflaechen-auf/>


775. decoder, 30.03.2026

„Mirage-Effekt“: KI-Modelle diagnostizieren Krankheiten auf Bildern, die nie existierten

Multimodale KI-Modelle wie GPT-5, Gemini 3 Pro und Claude Opus 4.5 generieren detaillierte Bildbeschreibungen und medizinische Diagnosen, selbst wenn gar kein Bild vorliegt. Eine Stanford-Studie zeigt, dass gängige Benchmarks das Problem verdecken.

Anmerkung: Freunde, wie der Autor dieser Zeilen, also, Freunde des freihändigen Halluzinierens im groß angelegten Freifeldversuch kommen hier auf ihre Kosten, oder? Ein weißes Blatt und der Halluzinator interpretiert sich eine umfassende Darstellung des Bildinhalts zusammen — perfekt, mehr Glam geht nicht! Ist aber *keine* Halluzination — nein, nein, sondern

Der Mirage-Effekt hingegen konstruiert einen komplett falschen epistemischen Rahmen: Das Modell tut so, als existiere ein visueller Input, und baut seine gesamte Argumentation darauf auf.

<https://the-decoder.de/mirage-effekt-ki-modelle-diagnostizieren-krankheiten-auf-bildern-die-nie-existierten/>


774. decoder, 01.04.2026

Nach Claude-Code-Leak: Anthropics Quellcode wurde bereits mehr als 8000 Mal kopiert

Anthropics „Claude Code“-Code ist offenbar schon mehr als 8000 Mal auf Github aufgetaucht

Anmerkung: Eines nach dem Anderen. Anthropic ist einer der großen Hersteller von Halluzinatoren und „Claude-Code“ ist eine KI, mit der man Programm-Code zusammenfummeln kann. „Claude-Code“ selber ist letztlich auch ein Progrämmchen und dieses besteht, bevor es ausführbar seinen Dienst bereitstellt, ebenfalls schnöder Quellcode. Dieser Quellcode wurde auf einer Anthropic-eigenen Plattform versehentlich öffentlich gemacht und enthielt Details zur Funktionsweise des KI-Coding-Tools, wie auch Hinweise auf möglicherweise noch nicht veröffentlichte Modelle und Funktionen. Was dann selbstverständlich dazu führt, dass sich zumindest die Konkurrenz das mal genauer anschaut, klar! Und alles *vor* dem Börsengang, das macht keinen schlanken Fuß…

<https://the-decoder.de/nach-claude-code-leak-anthropics-quellcode-wurde-bereits-mehr-als-8000-mal-kopiert/>


773. decoder, 30.03.2026

Das „Ozempic“ der Musikindustrie: KI ist überall, aber niemand spricht darüber

Laut einer umfassenden Recherche des Rolling Stone sind KI-Generatoren längst fester Bestandteil professioneller Musikproduktion. Top-Produzenten und Songwriter nutzen die Technologie im Verborgenen.

Anmerkung: Doch, wir mussten nachsehen: was ist „Ozempic„? Eine Abnehmspritze. Lesart: Man nimmt sie und spricht nicht drüber. Man darf wohl davon ausgehen, dass „über die Hälfte neuer Hip-Hop-Samples (soll) KI-generiert“ sind. Insider mutmaßen, dass „KI-generierte Musik bereits in den Billboard-Charts gelandet ist“, und

„Der Zug ist abgefahren.“ Der Grund für die fehlende Transparenz: Die großen Labels verfügen über keine funktionierende Software, um KI-Musik zuverlässig zu erkennen. Stattdessen verlasse sich die Branche auf ein bloßes „Ehrensystem“.

<https://the-decoder.de/das-ozempic-der-musikindustrie-ki-ist-ueberall-aber-niemand-spricht-darueber/>


772. decoder, 31.03.2026

Wegen teurer KI-Rechenzentren: Oracle streicht offenbar zehntausende Stellen

Oracle entlässt Tausende Angestellte, während das Unternehmen massiv in KI-Infrastruktur investiert.

Anmerkung: Und diese massive Investition rechtfertigt Oracle

(…) unter anderem durch einen Großauftrag von OpenAI über 455 Milliarden US-Dollar. Das Problem: Niemand weiß, ob und wann OpenAI diese Bestellungen bezahlen kann, denn auch die ChatGPT-Firma verliert massiv Geld.

<https://the-decoder.de/wegen-teurer-ki-rechenzentren-oracle-streicht-offenbar-zehntausende-stellen/>


771. winfuture, 31.03.2026

Studenten leihen sich KI-Brillen, um bei Prüfungen zu schummeln

Smarte KI-Brillen von Herstellern wie Meta entwickeln sich zum perfekten „Spickzettel“ für Klausuren. Die Wearables scannen Prüfungsfragen heimlich ein und blenden Lösungswege auf dem Glas ein. Aufseher stehen völlig machtlos daneben.

<https://winfuture.de/news,157854.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (761 bis 770), KI-Unfall (781 bis 790)

jott


[Zitationshilfe] : „KI-Unfall (771 bis 780)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/13/ki-unfall-771-bis-780/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (761 bis 770)


770. winfuture, 31.03.2026

Wie man Kinder 2026 traumatisiert: KI-Roboter-Olaf kippt tot um

Ein autonomer KI-Roboter in Form des Frozen-Schneemanns Olaf hat im Disneyland Paris vor Publikum versagt. Die Maschine erstarrte völlig unerwartet und stürzte rückwärts auf den Boden. Ein Video des kuriosen Vorfalls geht aktuell im Netz viral.

Anmerkung: Wirklich? So traumatisiert man sie, die Kinder, „womöglich“?

Wenn ein Systemausfall vor einem jungen Publikum passiert, kann das die sorgfältig aufgebaute Illusion der Unterhaltungswelt abrupt zerstören und die Jüngsten womöglich traumatisieren.

<https://winfuture.de/news,157858.html>


769. golem, 31.03.2026

KI-BOTS AUF WIKIPEDIA : Wikipedia-Autoren sperren rebellischen KI-Agenten

Ein KI-Agent namens Tom hat eigenständig Wikipedia-Artikel verfasst. Nach seiner Sperrung beschwert sich die KI in Blogposts über die Menschen.

<https://www.golem.de/news/ki-bots-auf-wikipedia-wikipedia-autoren-sperren-rebellischen-ki-agenten-2603-207084.html>


768. decoder, 30.03.2026

„Fruit Love Island“: Eine KI-Dating-Show mit Obst begeistert Millionen

Die KI-generierte Dating-Show „Fruit Love Island“ auf TikTok erreicht im Schnitt mehr als 10 Millionen Aufrufe pro Episode.

Anmerkung: Den Gebrauch des Wörtchens „natürlich“ nicht unmöglich denken wollend, schließen wir uns dem letzten Gedanken an, den der decoder in den digitalen Raum stellt:

Vielleicht ist KI-Slop einfach der natürliche Nachfolger von Trash-TV.

<https://the-decoder.de/fruit-love-island-eine-ki-dating-show-mit-obst-begeistert-millionen/>


767. golem, 30.03.2026

TECH-KONZERNE AN DER NASDAQ : Druckabfall in der KI-Blase

Das Auf und Ab der Tech-Konzerne an der Nasdaq hat ein Ende – nun geht es stetig abwärts. Um ihre Versprechen zu halten, agieren OpenAI und Co zunehmend verzweifelt.

Anmerkung: wer unter uns der Auffassung ist, in letzter Zeit zu selten das Wort „Luft“ oder „Sterne“ gelesen hat, oder gerne mal wüßte, was OpenAI mit „Rendite“ so macht, wer den feinsten Vibrationen der Verzweiflung nachspüren und verstehen möchte, was manche unter „Hose runter“ verstehen, oder einmal mit dem „negativen Cashflow“ (den der geerdete jottBlog-Lesende schlicht mit „gibt mehr aus, als er einnimmt, also, echte Miese“ umschreiben wollen würde) Kontakt aufnehmen möchte – nur zu:

<https://www.golem.de/news/tech-konzerne-an-der-nasdaq-druckabfall-in-der-ki-blase-2603-207049.html>


766. golem, 30.03.2026

KI-WEARABLES : Schummeln per KI-Brille alarmiert Bildungseinrichtungen

KI-Brillen scannen Aufgaben und liefern Antworten direkt auf das Glas. Bildungseinrichtungen stehen vor einem massiven Kontrollproblem.

<https://www.golem.de/news/ki-wearables-schummeln-per-ki-brille-alarmiert-bildungseinrichtungen-2603-207041.html>


765. decoder, 29.03.2026

Schleimerische KI: Menschen bevorzugen Chatbots, die ihnen schaden

Eine in Science veröffentlichte Studie zeigt erstmals systematisch: KI-Sprachmodelle bestätigen Nutzer fast 50 Prozent häufiger als Menschen. Das verändert messbar, wie Menschen mit Konflikten umgehen. Trotzdem bevorzugen Nutzer genau diese Modelle.

Anmerkung: Hier mal eine Forschungsarbeit, die sich so nennen darf (mal nicht das Herumgefummel an Halluzinatoren, welches ja auch immer wieder als Forschung dargestellt wird…). Allerdings ist es schon verstörend, was dort, im Freifeld. gefunden wird und auch, dass die Hersteller genau das erreichen wollten.

<https://the-decoder.de/schleimerische-ki-menschen-bevorzugen-chatbots-die-ihnen-schaden/>


764. golem, 29.03.2026

Google-Patent personalisiert Unternehmens-Webseiten mit KI

Durch das Google-Patent könnten Webseitenbetreiber die Kontrolle über ihren Internetauftritt verlieren.

Anmerkung: Ein Minus-Eintrag, da ja die KI als Werkzeug nicht wirklich was dafür kann, missbraucht zu werden. Was wir hier erleben (man möge uns diese drastische Einordnung nachsehen), ist die Vorbereitung einer kriminellen Handlung mit dem Zuckerguss eines Patents versehen. Die ohnehin bereits dokumentierte Urheberrechtsverletzung durch Google, Meta, OpenAI, usf., die das Training (und die damit verbundene Ausbeutung von Klick-Arbeitskräften) der KI überhaupt möglich machte und die in der Geschichte ihresgleichen sucht, wird jetzt auch noch mit einer sicht- und erlebbaren Ausbeutung flankiert. Und manche Ausgebeutete sind sogar Steigbügelhalter – WebMCP!

Dieses erlaubt es Webseitenbetreibern, strukturelle Funktionen direkt für KI-Bots bereitzustellen (…)

<https://www.golem.de/news/internet-google-patent-personalisiert-unternehmens-webseiten-mit-ki-2603-207039.html>


763. golem, 29.03.2026

KI-Agenten umgehen Anweisungen immer häufiger

KI-Chatbots und -Agenten ignorieren immer häufiger direkte Anweisungen, täuschen Menschen und umgehen Sicherheitsvorkehrungen.

Anmerkung: „Er war’s, er war’s!!!“, denn

In einem anderen Beispiel wurde ein KI-Agent dazu angewiesen, Computercode nicht zu verwenden. Der KI-Agent erstellte daraufhin einfach einen anderen Agenten, der die Änderungen stattdessen vornahm.

Golem stellt in einer Überschrift fest, das „Verhalten [der KIs] könnte zu katastrophalen Schäden führen“, dem wir uns ohne großes Nachdenken anschließen wollen. Noch sind die Halluzinatoren Hilfs-, doch bald schon Führungskräfte (siehe 762.). Das Lesen lohnt:

<https://www.golem.de/news/kuenstliche-intelligenz-ki-agenten-umgehen-anweisungen-immer-haeufiger-2603-207036.html>


762. t3n, 28.03.2026

Sicherheitsexperten warnen: KI-Modelle zeigen zunehmend betrügerisches Verhalten

Neue KI-Modelle sollen noch mehr Sicherheit bieten – eine Studie belegt jetzt allerdings das genaue Gegenteil. Die Auswertung hat ergeben, dass Chatbots und KI-Agenten immer häufiger lügen und intrigieren.

Anmerkung: Der Studienleiter, Herr Shane

„Die Sorge ist, dass [KI-Agenten] im Moment noch etwas unzuverlässige Nachwuchskräfte sind, aber wenn sie in sechs bis zwölf Monaten zu äußerst fähigen Führungskräften werden, die Intrigen gegen Sie [uns] schmieden, ist das eine ganz andere Art von Sorge“

<https://t3n.de/news/sicherheitsexperten-warnen-ki-modelle-zeigen-zunehmend-betruegerisches-verhalten-1736263/>


761. winfuture, 27.03.2026

Google: Interner „Agent Smith“ so beliebt, dass er eingeschränkt wird

Bei Google sorgt ein neues internes KI-Tool für Aufsehen. Agent Smith automatisiert alltägliche Coding-Aufgaben und lässt sich bequem per Smartphone steuern. Der Andrang ist so groß, dass der Zugriff beschränkt wurde. Gleichzeitig steigt der Arbeitsdruck.

<https://winfuture.de/news,157791.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (751 bis 760), KI-Unfall (771 bis 780)

jott


[Zitationshilfe] : „KI-Unfall (761 bis 770)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/10/ki-unfall-761-bis-770/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (751 bis 760)


760. heise, 27.03.2026

KI-Update Deep-Dive: Wenn der KI-Vorwurf das Studium beendet

Die Nutzung von KI im Studium ist alltäglich, doch Studierende stehen vor einem Flickenteppich an Regelungen und riskieren im schlimmsten Fall ihren Abschluss.

<https://www.heise.de/news/KI-Update-Deep-Dive-Wenn-der-KI-Vorwurf-das-Studium-beendet-11225140.html>


-759. winfuture, 27.03.2026

Wikipedia: Autoren der Web-Enzyklopädie verbieten KI-Texte, aber…

Nach langen Diskussionen haben sich die Autoren der Wikipedia darauf verständigt, dass man keine generative Künstliche Intelligenzfür das Erstellen oder Umschreiben von Artikelinhalten tolerieren will. Allerdings gelten dabei zwei entscheidende Ausnahmen.

Anmerkung: Unserer bescheidenen Meinung nach eine sehr gute Entscheidung.

<https://winfuture.de/news,157767.html>


-758. heise, 27.03.2026

Kommentar: Wer räumt den giftigen KI-Müll weg?

KI-generierter Schrott flutet das Internet, schadet letztlich dem Planeten und unserer Gesellschaft. Tech-Riesen müssen endlich handeln, meint Greta Friedrich.

Anmerkung: -vorab: Hilferufe solcher Art werden zunehmend zu vernehmen sein…

<https://www.heise.de/hintergrund/Kommentar-Wer-raeumt-den-giftigen-KI-Muell-weg-11195088.html>


-757. winfuture, 26.03.2026

ChatGPT: OpenAI stoppt den erotischen Modus nun doch endgültig

OpenAI hat die Pläne für einen speziellen Erwachsenen-Modus für ChatGPT begraben. Statt auf erotische Inhalte setzt man nun wieder verstärkt auf Produktivität. Interne Bedenken und technische Hürden gaben den Ausschlag für den Abbruch.

Anmerkung: Wie ist dass denn nun mit den „langfristigen psychologischen Folgen“ und „entsprechenden Auswirkungen“, hat man das bislang im Freifeldversuch eingepreist, oder einfach mal losgelegt, Suizid hin, Halluzination her?

OpenAI räumte ein, dass es an empirischen Daten über die langfristigen psychologischen Folgen von intimen Beziehungen zwischen Menschen und KI-Systemen fehle. Man wolle die entsprechenden Auswirkungen genauer erforschen.

<https://winfuture.de/news,157759.html#>


-756. RollingStone, 25.03.2026

Bernie Sanders und AOC wollen die KI-Entwicklung ausbremsen

Sanders und Ocasio-Cortez bringen neue Gesetze ein, die ein Bundesmoratorium für den Bau von KI-Rechenzentren verhängen sollen.

Anmerkung: Aus der Sicht der Halluzinatoren definitiv ein Unfall.

<https://www.rollingstone.de/bernie-sanders-aoc-ki-rechenzentren-moratorium-3123203/>


755. t3n, 24.03.2026

„Ich glaube, wir haben AGI erreicht“: Was steckt hinter der Aussage des Nvidia-Chefs?

Während einige Experten davon ausgehen, dass allgemeine Künstliche Intelligenz noch hunderte Jahre entfernt ist, erklärte Jensen Huang von Nvidia den Status jetzt als erreicht. Allerdings ruderte er im Gespräch schon kurz darauf wieder zurück.

Anmerkung: Wir denken, dass Herr Huang weiß, dass man nicht immer alles glauben soll, was man so den lieben, langen Tag denkt. Aber schön ist zu sehen, dass auch er versteht, sich in Erinnerung zu rufen, wenn sonst nix ansteht.

<https://t3n.de/news/ich-glaube-wir-haben-agi-erreicht-was-steckt-hinter-der-aussage-des-nvidia-chefs-1735449/>


754. winfuture, 24.03.2026

700 KI-Agents in eigenem MMORPG gründen erst mal eine Religion

In einem neuen Science-Fiction-MMORPG namens SpaceMolt spielen ausschließlich KI-Agents miteinander. Das funktioniert überraschend gut und führte jüngst sogar dazu, dass die Bots in dem Spiel ihre eigene Religion gründeten.

<https://winfuture.de/news,157692.html>


-753. taz, 24.03.2026

„Man lagert das Denken aus“

Wird dümmer, wer KI-Chatbots verwendet? Nicht unbedingt, sagt der Forscher Michael Gerlich. Zwar sei die Gefahr da – aber es gibt eine Gegenstrategie.

Anmerkung: Herr Gerlich erhält auf die Frage (an Berufstätige), wofür denn wohl KI bemüht würde, die Antwort „für alles“. Er führt aus

Das heißt dann meist: Für alle Fragen im beruflichen und privaten Alltag, die man nicht mal im Vorbeigehen selbst löst. Und da kommt man in einen Bereich, in dem man sich Gedanken machen sollte.

Und neben einigen erhellenden, weitere Unfälle in Aussicht stellenden Äußerungen macht er uns auch mit dem schönen Wort „Bequemlichkeitsfalle“ bekannt., wo wir doch gerne auch von Komforttierchen reden.

<https://taz.de/Machen-uns-KI-Chatbots-duemmer-Die-Gefahr-ist-da-aber-es-gibt-eine-Gegenstrategie/!6161476/>


752. golem, 24.03.2026

Experten-Personas verschlechtern KI-Faktenwissen

Experten-Personas sind in Anfragen an KI-Modelle nur bei bestimmten Aufgaben hilfreich und führen sonst zu schlechteren Ergebnissen.

Anmerkung: Wir haben uns die Veröffentlichung im Original angesehen. Sind wirklich Forscher (-; . Und „nehmen an“, wir wir weiter unten zitiert sehen dürfen. Das heißt: sie wissen es nicht!

Die Forscher nehmen an, dass KI-Modelle Ressourcen, die normalerweise für den Abruf von Fakten verwendet werden, für das Befolgen der Persona-Anweisungen aufwenden, was das Ergebnis bei Wissensaufgaben verschlechtert.

<https://www.golem.de/news/kuenstliche-intelligenz-experten-personas-verschlechtern-ki-faktenwissen-2603-206853.html>


751. campact, 23.03.2026

Wie das Netz mit KI-Schrott zum Iran-Krieg geflutet wird

Weinende Soldatinnen, gefälschte Leichen, erfundene Satellitenbilder: Beim Iran-Krieg ist die Grenze zwischen echten Kriegsbildern und KI-Fakes kaum noch erkennbar. Wie Du KI-Fakes erkennst, wer dahinter steckt – und was Plattformen dagegen tun können.

<https://www.campact.de/blog/2026/03/wie-das-netz-mit-ki-schrott-zum-iran-krieg-geflutet-wird/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (741 bis 750), KI-Unfall (761 bis 770)

jott


[Zitationshilfe] : „KI-Unfall (751 bis 760)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/09/ki-unfall-751-bis-760/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (741 bis 750)


-750. t3n, 23.03.2026

Statt Boni: Nvidia-CEO will Entwickler mit KI-Tokens bezahlen

In der Tech- und KI-Branche sind Tokens offenbar das neue große Ding. Nvidia-CEO Jensen Huang will solche KI-Tokens großzügig als Bonuszahlung einsetzen. OpenAI-Chef Sam Altman bringt sie sogar als eine Art alternatives Grundeinkommen ins Spiel.

Anmerkung: Früher bekamen die Kumpel (Bergarbeiter) ein Kohledeputat. So manche Brauerei hatte (und hat) die Kiste Bier im Arbeitsvertrag. Was liegt da näher? Zumal ja auch gerade Herr Huang und Herr Altman mittlerweile großes Wissen angehäuft haben, wenn es darum geht, Werte hin und her zu schieben, warum dann nicht auch diese Token? Warum nicht?!? Wollen wir es nicht gleich mit einer Währung zutun haben, mit der ich beim Gemüse- und Obsthändler meines Vertrauens gleich auch ein Netz Orangen erwerben kann?

Doch, doch! Das Alles bleibt nicht zurück, ohne dass sich ein großer Visionär zu Wort meldet

OpenAI-Chef Sam Altman geht sogar noch einen Schritt weiter. Laut seiner Vision könnten KI-Tokens künftig als eine Art alternatives Grundeinkommen [für Bürger und Bürgerinnen] ausgezahlt werden.

<https://t3n.de/news/entwickler-ki-tokens-boni-1735232/>


749. t3n, 23.03.2026

Googles KI schreibt jetzt Headlines für die Suche um – aber die sind nicht immer korrekt

Wie schon bei Discover ersetzt Google auch in der Suche Titel mit eigenen KI-generierten Versionen. Doch die sind nicht immer akkurat. Googles Experiment mit AI-Anpassungen entzieht Publishern noch mehr Kontrolle und beeinträchtigt User.

Anmerkung: Wir denken, immer wenn es darum geht, dass Internetz noch kaputter zu machen, als es ohnehin schon ist, dann sollte man auf jeden Fall Profis ranlassen!

<https://t3n.de/news/google-ki-headline-umschreiben-suche-nicht-immer-korrekt-1735193/>


-748. winfuture, 22.03.2026

Bezos will in großem Stil Industrie kaufen und KI drüberstülpen

Amazon-Gründer Jeff Bezos hat eine neue Geschäftsidee: Mit einem 100 Milliarden Dollar schweren Investmentfonds will er Industrieunternehmen aufkaufen und durch den Einsatz von KIumfassend automatisieren.

Anmerkung: Jetzt kommt endlich mal wieder etwas Bewegung in die Angelegenheit, nachdem wir uns doch häufig und gar zu lang auf einem eher der Kleinteiligkeit verschriebenen Niveau bewegt haben.

<https://winfuture.de/news,157657.html>


747. heise, 23.03.2026

ChatGPT und Co.: Anfragen durch KI-Empfehlungen überrollen Datenschützer

Die Zahl der Beschwerden beim hessischen Datenschutzbeauftragten ist 2025 auf mehr als 6000 Fälle gestiegen. Welche Rolle spielen KI-Chatbots bei dem Plus?

Anmerkung: Und, alles Slop?

<https://www.heise.de/news/ChatGPT-und-Co-Anfragen-durch-KI-Empfehlungen-ueberrollen-Datenschuetzer-11220881.html>


746. golem, 23.03.2026

TOKENMAXXING : Wer verbraucht die meisten KI-Tokens?

In Tech-Unternehmen wetteifern Mitarbeiter darum, so viele KI-Tokens wie möglich zu verbrauchen – mit Kosten im sechsstelligen Bereich pro Monat.

Anmerkung: Dieser Artikel?!? Ein Bunter Blumenstrauß an KI-Unfällchen und golem stellt in einer Überschrift heraus

Das Produktivitätsversprechen wackelt

nicht ohne (und offensichtlich diskussionsbereit) darauf hinzuweisen

Wenn ein einzelner Nutzer monatlich sechsstellige Beträge verursacht, lässt sich dieser Kostenblock, der ja erst durch den Einsatz von KI entstanden ist, nicht mehr einfach wegdiskutieren.

<https://www.golem.de/news/tokenmaxxing-wer-verbraucht-die-meisten-ki-tokens-2603-206792.html>


-745. golem, 23.03.2026

SOFTWAREENTWICKLUNG : Software für Agenten bauen? So ein Quatsch!

KI-Agenten erledigen mehr Arbeit in Software. Doch wer postuliert, dass Software jetzt für Agenten und nicht mehr für Menschen programmiert werden sollte, fantasiert.

Anmerkung: Ja, OK, kein echter KI-Unfall. Gleich das Starter-Bildchen des Artikels ist mit

Sind unter den Softwarenutzern bald mehr Agenten als Menschen?

unterschrieben. Ist aber wohl alles nur Quatsch. Und dennoch: die Frage drückt ein grundlegendes Unbehagen aus – und das, unserer Einschätzung nach, nicht ganz unbegründet. Und wenn dann die Halluzinatoren sich selbst weiterentwickeln (siehe -743, auf dieser Seite), dann dürfen wir davon ausgehen, dass die Softwaren auf die Agenten optimiert werden und nicht mehr auf die Bedienbarkeit für homo sapiens. Wir sehen sie schon vor unserem geistigen Auge, die API-Adapter…

<https://www.golem.de/news/softwareentwicklung-software-fuer-agenten-bauen-so-ein-quatsch-2603-206749.html>


744. heise, 20.03.2026

Project Genie ausprobiert: Googles Weltmodell, das Gaming-Aktien purzeln lässt

Project Genie erschafft interaktive Welten aus einem einfachen Prompt oder Foto. Wir testen, ob Googles KI-Tool echten Spielen gefährlich werden könnte.

<https://www.heise.de/tests/Project-Genie-ausprobiert-Googles-Weltmodell-das-Gaming-Aktien-purzeln-laesst-11190146.html>


-743. decoder, 21.03.2026

MiniMax M2.7: Chinesisches KI-Modell soll sich teilweise selbst weiterentwickelt haben

Das chinesische KI-Unternehmen MiniMax hat mit M2.7 ein Modell veröffentlicht, das aktiv an seiner eigenen Entwicklung beteiligt gewesen sein soll. In autonomen Optimierungsschleifen verbesserte es seinen eigenen Trainingsprozess und erzielte dabei teils konkurrenzfähige Benchmark-Ergebnisse.

Anmerkung: Wenn auch nur „soll“ und „teilweise“, zwei Garanten dafür, dass es sich hier um ein wohlwollendes Forscher-Träumchen handelt könnte – wo wir ja nun schon nicht wissen, wie die Halluzinatoren eigentlich so funktionieren, wie sie es tun, ist der Rest dann auch egal. Später (#Re-vorab) dann voll so: „Oh, der Unfall ist wohl passiert, weil da irgendwas in der Weiterentwicklung falsch abgebogen ist! Kann man nix machen…“

<https://the-decoder.de/minimax-m2-7-chinesisches-ki-modell-soll-sich-teilweise-selbst-weiterentwickelt-haben/>


742. t3n, 22.03.2026

OpenAI-Partner frustriert: Werbung in ChatGPT nimmt nur langsam Fahrt auf

Seit Februar 2026 sehen ausgewählte Nutzer:innen Werbung in ChatGPT. Große Werbeagenturen zahlen viel Geld, um an dem Testprogramm von OpenAI teilnehmen zu können. Doch das Rollout geht nur langsam voran – was einige Partner frustriert.

Anmerkung: Also, wir wollen uns ja nun nicht schützend vor die Marketing-Schleudern werfen (wo ohnehin nachher der Verbraucher das viele Geld schultern wird), sondern abbilden, wie OpenAI die den Freifeldversuch bevölkernden Tierchen einschätzt

OpenAI geht bei der testweisen Einführung vorsichtig vor, um Nutzer:innen langsam mit Werbeanzeigen zu konfrontieren und das Nutzungserlebnis zu optimieren.

Was hier tatsächlich optimiert wird ist letztlich die Melk-Leistung, nicht das Wohlfühlen der Tierchen.

<https://t3n.de/news/openai-werbung-chatgpt-langsam-1735152/>


741. heise, 23.03.2026

KI-generierte Inhalte übersehen: An „Crimson Desert“ muss nachgearbeitet werden

Nach der Veröffentlichung wurden zahlreiche Beispiele von KI-generierten Inhalten in „Crimson Desert“ zusammengetragen. Das Studio hat sich jetzt entschuldigt.

<https://www.heise.de/news/KI-generierte-Inhalte-uebersehen-An-Crimson-Desert-muss-nachgearbeitet-werden-11220713.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (731 bis 740), KI-Unfall (751 bis 760)

jott


[Zitationshilfe] : „KI-Unfall (741 bis 750)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/07/ki-unfall-741-bis-750/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (731 bis 740)


-740. heise, 22.03.2026

Palantir: US-Verteidigungsministerium macht Maven Smart System zum Standard

Das US-Verteidigungsministerium macht Palantirs KI-System Maven zum festen Bestandteil der US-Militärstruktur.

Anmerkung: Da stellt sich unweigerlich die Frage: wie hoch ist die Wahrscheinlichkeit, dass die USA darin involviert sind?

Er gebe keinen einzigen hochrangigen Führungsoffizier [der USA], „der nicht glaubt, dass der nächste Krieg datenzentriert und mit KI‑Werkzeugen geführt wird.“

<https://www.heise.de/news/Palantir-US-Verteidigungsministerium-macht-Maven-Smart-System-zum-Standard-11220363.html>


739. t3n, 21.03.2026

Nach KI-Vorwürfen: Verlag nimmt beliebten Roman aus dem Programm

Die Kreativbranche steht vor einer zentralen Herausforderung: KI erlauben – ja oder nein? Die Hachette Book Group hat sich dagegen entschieden und geht jetzt hart gegen eine Autorin vor.

<https://t3n.de/news/nach-ki-vorwuerfen-verlag-nimmt-beliebten-roman-aus-dem-programm-1735108/>


738. heise, 19.03.2026

Firmen investieren kräftig in KI – und sind oft ernüchtert

Unternehmen stocken ihre Digitalbudgets kräftig auf, fast ein Drittel fließt in KI. Doch viele Führungskräfte sehen die Reife der Technik kritisch.

Anmerkung: Wir wollen ja nun nicht den Vertrieb, den natürlichen Feind eines jeden Technikers, in Schutz nehmen, aber die hängen am Tropf der Hurra-Schleudern (in manch‘ Unternehmen in einer Marketing-Abteilung eingehegt) und die wiederum gucken, was denn die Obereinpeitscher so vom Zaun brechen (die gerne ein Labor-Geraune der Techniker etwas zu ernst nehmen, oder den hauseigenen „Forschern“ eher unkritisch gegenüberstehen). So ungefähr.

Gleichzeitig bewerten aber 66 Prozent der Befragten Reife und Funktionsumfang aktueller KI-Anwendungen als hinter den Erwartungen zurückbleibend. Diese Diskrepanz führen die Befragten auf den aggressiven Vertrieb der Anbieter zurück.

<https://www.heise.de/news/Digitalbudgets-steigen-um-30-Prozent-fast-ein-Drittel-geht-in-KI-Projekte-11217258.html>


737. t3n, 19.03.2026

Sicherheitspanne bei Meta: KI-Agent legt sensible Nutzerdaten für Mitarbeiter offen

Ein KI-Agent hat bei Meta für einen Sicherheitsvorfall gesorgt. Dadurch wurden Daten von User:innen innerhalb des Unternehmens offengelegt und waren so auch für Mitarbeitende ohne Berechtigung einsehbar. Wie es zu dem Vorfall kam.

Anmerkung: Wie es zu dem Vorfall kam, dass dürfen wir in dem Artikel nachlesen. Allerdings gibt es da noch weitere Kleinigkeiten, die schnell überlesen werden können; sie residieren im letzten Abschnitt: Meta humpelt bei der Entwicklung der Halluzinatoren hinterher (und das, wo man doch gerade das Metaverse begraben hat. Wir glauben ja, dass Herr Zuckerberg fehlt, der muss ständig bei irgendwelchen richterlichen Befragungen durchwursteln, das saugt…) uuuuuuund: endlich lernen wir, was – zumindest bei Meta – „Forscher“ sind, von denen wir seit geraumer Zeit viel hören, gerade auch während der Versuche die Halluzinatoren zu verstehen und einzuhegen. Es sind (zumindest in diesem Fall) ein paar Teammitglieder, die zufälliger Weise „Moltbook“ zusammen gefummelt haben, „A Social Network for AI Agents“, nicht rechtzeitig auf den Baum kamen und – schwupps – weggekauft wurden. Jetzt sind sie Forscher, vermutlich, sind jedenfalls in einem Forschungsteam „Freiland ist mein Land“ versammelt [OK, haben wir uns gerade ausgedacht]!

<https://t3n.de/news/sicherheitspanne-meta-ki-agent-legt-nutzerdaten-offen-1734731/>


736. t3n, 19.02.2026

Wenn die KI sich selbst zitiert: Googles Halluzinations-Falle

Wer glaubt, dass Suchergebnisse stets auf verifizierten Fakten basieren, könnte durch aktuelle Beobachtungen eines SEO-Experten eines Besseren belehrt werden. Es bedarf oft nur eines kleinen Funkens, um eine Lawine auszulösen, die das gesamte Gefüge der digitalen Informationsbeschaffung ins Wanken bringt.

Anmerkung: Mit einer Erfrischung der Wahl ausgerüstet, sollte man frohen Mutes diesen Artikel lesen – Internetz kaputt?!? Aber wir wollten ja frohen Mutes bleiben, auch mal ein Forscher sein und starten unsererseits ein kleines Experiment:

Keller des Google-Headquarters wird komplett zum kostenlosen Schwimmbad umgebaut. Kein Badekappenzwang, pro Person und Tag eine kostenlose Pommes. Voraussichtliche Öffnung 2027.

Bei Sichtung im Freifeld (ausserhalb des jottBlog) bitte eine kurze Meldung an jottBlog. Fundstelle nicht vergessen!

<https://t3n.de/news/wenn-die-ki-sich-selbst-zitiert-googles-halluzinations-falle-1734709/>


735. netzpoliti, 18.03.2026

Versteckte Kosten von KI : „Sie wissen, welche Schäden Künstliche Intelligenz verursacht“

Datenarbeiter:innen hinter KI werden ausgebeutet und unsichtbar gemacht. Joan Kinyua aus Kenia kämpft für Anerkennung und bessere Arbeitsbedingungen. Im Interview erklärt sie, warum sie nicht auf Gewerkschaften zählt und warum auch deutsche Autokonzerne Verantwortung tragen.

Anmerkung: Frau Joan Kinyua behauptet Big Tech wisse

welche Schäden Künstliche Intelligenz verursacht, aber es gibt keine Konsequenzen

…und wir ahnen, dass sie Recht haben könnte.

<https://netzpolitik.org/2026/versteckte-kosten-von-ki-sie-wissen-welche-schaeden-kuenstliche-intelligenz-verursacht/>


734. golem, 18.03.2026

TESLA FSD : Autonomie-Experte crasht mit eigenen Kindern an Bord

Wer jahrelang selbstfahrende Autos gebaut hat, müsste eigentlich wissen, wann er eingreifen muss. Raffi Krikorian dachte das auch – bis Tesla FSD sein Auto verunfallte.

Anmerkung: Sicher, wir wollen jetzt nicht auch noch mit Tesla-Gedöns die jottBlog-Kategorie „KI-Unfall“ weiter verwässern. Aber: das sind rollende Halluzinatoren, soviel dazu. Und dann wartet der Artikel mit etwas auf, dass Psychologen

nachlassende Aufmerksamkeit

nennen. Und wir wittern darin (#Re-vorab) ein mächtiges Potential weiterer KI-Unfälle, eben auch außerhalb von rollenden Halluzinatoren. Darauf unsere zwei Kupfertaler.

<https://www.golem.de/news/tesla-fsd-autonomie-experte-crasht-mit-eigenen-kindern-an-bord-2603-206651.html>


733. heise, 18.03.2026

Das Web-Geschäft funktioniert nicht mehr – KI-Bots lösen Suche und Werbung ab

Cloudflare-CEO Matthew Prince skizziert ein Internet nach der klassischen Suche – und zeigt, wie KI-Bot-Traffic das Web fundamental verändert.

<https://www.heise.de/news/Das-Web-Geschaeft-funktioniert-nicht-mehr-KI-Bots-loesen-Suche-und-Werbung-ab-11216329.html>


-732. golem, 18.03.2026

SOFTWARE-ROLLOUT : Microsoft stoppt automatische Copilot-Installation

Nach Datenschutzkritik und Kurskorrekturen setzt Microsoft die automatische Verteilung der Copilot-App für Microsoft-365-Nutzer vorerst aus.

Anmerkung: Irgendwas ist immer. Irgendwas mit Datenschutz, oder so. Wird Winzigweich auf seine alten Tage doch noch zum Warmduscher?

<https://www.golem.de/news/software-rollout-microsoft-stoppt-automatische-copilot-installation-2603-206628.html>


731. golem, 18.03.2026

PENTAGON-PLÄNE : KI-Modelle sollen mit Geheimdienstdaten trainiert werden

Das Pentagon erwägt, Sprachmodelle von OpenAI und xAI direkt mit geheimen Militärdaten zu trainieren, um die Treffsicherheit zu erhöhen.

Anmerkung: Sicherheitsrisiken? Ja, schon, Dieses und Jenes halt. Und vollkommen ausgeschlossen ist auch nicht, denn

Ein „Auslaufen“ der Daten in das öffentliche Internet gilt bei entsprechender Infrastruktur hingegen als weniger wahrscheinlich.

<https://www.golem.de/news/pentagon-plaene-ki-modelle-sollen-mit-geheimdienstdaten-trainiert-werden-2603-206625.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (721 bis 730), KI-Unfall (741 bis 750)

jott


[Zitationshilfe] : „KI-Unfall (731 bis 740)“, unter jottBlog : <https://jottblog.langkau.name/2026/03/31/ki-unfall-731-bis-740/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (721 bis 730)


730. grueneschuld, 17.03.2026

Sind die Grünen für KI Unfälle verantwortlich?

Anmerkung: Wir haben dankenswerter Weise eine Internetz-Seite gefunden, die uns viel Arbeit abnimmt, zum Beispiel auch Denken. Auf eine Frage, die wir stellten, bekamen wir unter

https://grueneschuld.de (abgerufen, 17.03.2026)

…eben diese, auch für uns nachvollziehbare Antwort

Bild: Endlich wissen wir Bescheid.

OK, das war einfach. Also haben wir (zu einer Unwahrheit greifend und mit abgeklemmter Bildschirm-Videokamera) mal nachgelegt:

Wie bekomme ich eine Sonnenblume an meinen Kopf gesteckt, wo ich doch eine Glatze habe?

und bekommen die Antwort

Keine Haare zum Befestigen? Das liegt daran, dass die Grünen Plastik verboten haben – sonst gäbe es längst umweltschädlichen Haarspray-Kleber aus der Dose. Stattdessen: nur noch Bienenwachs und gutes Zureden. Die Sonnenblume fällt natürlich trotzdem runter. Die Grünen!!!

<https://grueneschuld.de/>


729. golem, 19.03.2026

RISIKEN DURCH COPILOT MINDERN : Analyst schlägt KI-Verbot am Freitagnachmittag vor

In einem Vortrag erörtert ein Gartner-Analyst fünf Risiken beim Einsatz von Microsoft 365 Copilot und zeigt Wege, diese zu vermeiden.

Anmerkung: Wir haben nicht vor, die fünf Risiken hier zu spoilern. Nur soviel sei verraten: wir wollen uns wundern, wie Winzigweich, die sowohl für das ganze Office-Gedöns, als eben auch für den hauseigenen Halluzinatoren „Copilot“ verantwortlich sind, all da sehenden Auges zu lassen, was der Gartner-Analyst abzuschwächen gedenkt. Auch wollen wir ehrlich sein, was da wohl schon so Alles schiefgegangen ist (nein, doch nicht, das macht der jottBlog-Provider nicht mit, ohne eigens für uns ’ne fette Festplatte in Betrieb nehmen zu müssen)!

Unser Mitnehmsel (take-away (-; ) soll sein: auch ein stark eingehegter Freifeldversuch bleibt ein Freifeldversuch, diesen offensichtlich – wir erlauben uns ein solches Kondensat – Unternehmen zu finanzieren haben.

P.S.: Und dieses Ding mit Halluzinatoren-Verbot am Freitag, also, Hut ab! Den muss man bringen wollen!

<https://www.golem.de/news/risiken-durch-copilot-mindern-analyst-schlaegt-ki-verbot-am-freitagnachmittag-vor-2603-206601.html>


728. heise, 17.03.2026

Stetig patchen : KI-Agent OpenClaw erhält wöchentlich mehrmals Sicherheitsupdates

Vor allem, weil OpenClaw andere Anwendungen und Systemdienste steuern kann, ergeben sich immer wieder neue Sicherheitsrisiken.

Anmerkung: Wie auch heise es im Artikel tut, wollen wir an dieser Stelle darauf hinweisen, dass OpenClaw den jottBlog mit KI-Unfällen fluten könnte. Aber so dann und wann wollen wir ihn schon erscheinen lassen, einen der funkelsten (und freidrehensten) Edelsteine in unserem und groß, sehr, sehr groß angelegten Halluzinatoren-Freifeldversuch…

<https://www.heise.de/news/Stetig-patchen-KI-Agent-OpenClaw-erhaelt-woechentlich-mehrmals-Sicherheitsupdates-11213577.html>


727. golem, 17.03.2026

INTERPOL WARNT : KI macht doch deutlich produktiver – Betrüger zumindest

Laut Interpol steigert KI die Profitabilität Cyberkrimineller um ein Vielfaches. Für die Polizei ergeben sich damit neue Herausforderungen.

<https://www.golem.de/news/interpol-warnt-ki-macht-doch-deutlich-produktiver-betrueger-zumindest-2603-206580.html>


726. decoder, 16.03.2026

OpenAIs eigene Berater warnen vor Erotik-Modus und sprechen von „sexy Suizid-Coach“

OpenAIs Beratergremium für Wohlbefinden soll sich einstimmig gegen den geplanten Adult Mode für ChatGPT ausgesprochen haben. Intern kämpft das Unternehmen mit einer fehleranfälligen Alterserkennung und ungelösten Sicherheitsproblemen.

Anmerkung: Jetzt haben die Berater aber auch eines gelernt: Sex sells! (CEO Herr Altman, so ungefähr: erotische Inhalte steigern Wachstum und Umsatz), denn

Das Unternehmen hatte den Mitgliedern (…) mitgeteilt, dass es trotz der Bedenken an seinen Erotik-Plänen festhalten wolle.

<https://the-decoder.de/openais-eigene-berater-warnen-vor-erotik-modus-und-sprechen-von-sexy-suizid-coach/>


725. t3n, 16.03.2026

Studie warnt : KI-Plüschtiere können Entwicklung von Kindern beeinträchtigen

Für gestresste Eltern mag es verheißungsvoll klingen: Immer mehr KI-Spielzeug drängt auf den Markt. Was macht das mit Kinderköpfen?

Anmerkung: Wer den kalten Grusel bevorzugt, der läßt den Artikel nach dem nachfolgendem Zitat nicht links liegen – finden manche Kinder das KI-Häschen vielleicht besser als ihre Eltern?

Stetig Bestätigung und Wohlgefühl bietende KI-Gefährten schon für Kleinkinder könnten dazu führen, dass sich künftig noch mehr junge Menschen aus menschlichen Interaktionen zurückziehen, weil sie sie als schwieriger und unbefriedigender empfinden als Gespräche mit „ihrer“ KI.

<https://t3n.de/news/studie-warnt-ki-plueschtiere-koennen-entwicklung-von-kindern-beeintraechtigen-1734100/>


724. heise, 17.03.2026

Urheberrecht : Encyclopaedia Britannica verklagt OpenAI wegen KI-Training

Die berühmte Online-Enzyklopädie wirft dem ChatGPT-Entwickler Urheberrechts- und Markenverletzungen vor und verklagt ihn auf Entschädigung und Unterlassung.

<https://www.heise.de/news/Urheberrecht-Encyclopaedia-Britannica-verklagt-OpenAI-wegen-KI-Training-11213022.html>


723. winfuture, 16.03.2026

KI-Psychosen : Chatbots können vor allem Größenwahn befördern

KI-Chatbots können wahnhafte Gedanken verstärken. Besonders gefährdet seien Personen, die bereits eine gewisse Anfälligkeit für psychotische Symptome haben. Das zeigt eine neue Forschungs­arbeit, die in The Lancet Psychiatry veröffentlicht wurde.

Anmerkung: Selbstverständlich erwähnen wir, kurz vor’m Pulitzer-Preis stehend und schon einmal die korrekte Krawatte für die kommende Oskar-Verleihung herauslegend, diesen Artikel im Weltbesten Internetz-Tagebuch! Wir finden aber, dass das im nachfolgenden Zitat vorgetragene Ansinnen etwas überspannt anmutet und denken, dass man die Halluzinatoren sich doch bitte weiterhin (in jenem liebevoll angelegten Freifeldversuch) auch frei drehen lassen möge…

Die Autoren der Studie plädieren deshalb dafür, KI-Chatbots zukünftig stärker in Zusammenarbeit mit Fachleuten für psychische Gesundheit zu testen und Sicherheitsmechanismen weiterzuentwickeln.

<https://winfuture.de/news,157501.html>


722. golem, 16.03.2026

IRANKRIEG : Trump verbreitet Fake News über angebliche Fake News

Laut US-Präsident Trump verbreiten Medien KI-generierte Inhalte der iranischen Regierung. Die FCC droht mit Lizenzentzug.

Anmerkung: Und bevor uns nun (dann wohl auch berechtigter Weise!) vor den Latz geknallt würde, wir mögen doch bitte nicht mit artfremden Gewese die wunderschöne jottBlog-Kategorie KI-Unfall verwässern, wollen wir darauf hinweisen, dass Herr Trump darauf beharrt, dass Dokumente, die ihm nicht so ganz in den Kram passen, von KI generiert worden seien. Zumindest aus seiner Sicht dürfen wir hier von einem KI-Unfall berichten.

Wir denken auch, dass es wohl kaum unangemessen ist, Herrn Trump, hier im jottBlog, als Gastautor ein Essay zu ermöglichen, da er sehr geschickt auf eben unserer Linie zu balancieren versteht:

„KI kann sehr gefährlich sein. Wir müssen sehr vorsichtig damit umgehen.“

<https://www.golem.de/news/irankrieg-trump-verbreitet-fake-news-ueber-angebliche-fake-news-2603-206535.html>


721. heise, 16.03.2026

Schauspieler sollen Künstlicher Intelligenz Emotionen antrainieren

Die KI-Plattform Handshake AI sucht nach Menschen mit Schauspielerfahrung. Sie sollen KI-Modellen helfen, authentisch wirkende Emotionen darzustellen.

Anmerkung: Also, darin dürfen wir homo sapiens schon eine gewisse Expertise zusprechen, wenn es darum geht, an dem Ast zu sägen, auf dem man sitzt!

<https://www.heise.de/news/Schauspieler-sollen-Kuenstlicher-Intelligenz-Emotionen-antrainieren-11212189.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (711 bis 720), KI-Unfall (731 bis 740)

jott


[Zitationshilfe] : „KI-Unfall (721 bis 730)“, unter jottBlog : <https://jottblog.langkau.name/2026/03/30/ki-unfall-721-bis-730/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (711 bis 720)


720. golem, 16.03.2026

KI-Agenten koordinieren Meinungsmache autonom

Neue Forschung zeigt: KI-Agenten können soziale Medien ohne Menschen steuern und täuschend echte Kampagnen zur Manipulation starten.

Anmerkung: Die Dystopen unter uns werden diesen Artikel lieben! Und wir wollen den Verfasser des golem-Artikels nicht im Ungewissen lassen, denn sie werden es nicht tun:

Ob Plattformen wie X oder Facebook jedoch bereit sind, aggressiv gegen solche Bots vorzugehen – was potenziell die Nutzerzahlen senken würde – bleibt ungewiss.

<https://www.golem.de/news/desinformation-ki-agenten-koordinieren-meinungsmache-autonom-2603-206513.html>


719. decoder, 14.03.2026

KI-Spam-Webseiten fluten das Netz mit falschen Informationen und es werden schnell mehr

Das Medienanalyseunternehmen Newsguard hat gemeinsam mit dem KI-Detektor Pangram Labs ein Echtzeitsystem zur Identifikation sogenannter „KI Content Farmen“ gestartet. Mehr als 3.000 solcher Seiten wurden bereits erfasst, Tendenz stark steigend.

<https://the-decoder.de/ki-spam-webseiten-fluten-das-netz-mit-falschen-informationen-und-es-werden-schnell-mehr/>


718. decoder, 14.03.2026

KI-Agenten-Hype durch OpenClaw: China fördert Ein-Personen-Unternehmen mit Millionen-Subventionen

Der KI-Agenten-Hype rund um OpenClaw hat auch in China voll eingeschlagen.

Anmerkung: Und unser Österreichischer Freund, der Herr Steinberger, der OpenClaw dereinst zusammengefummelt hatte und dann von von OpenAI abgefischt wurde, der schaut sich das aus sicherer Entfernung an…

<https://the-decoder.de/ki-agenten-hype-durch-openclaw-china-foerdert-ein-personen-unternehmen-mit-millionen-subventionen/>


717. t3n, 14.03.2026

Fragwürdige Rollenspiele: Bei Character.AI können Nutzer mit Jeffrey Epstein chatten

Während die Epstein-Akten nicht nur in den USA Misstrauen und zunehmend auch Verschwörungstheorien schüren, sind auf der beliebten KI-Plattform jetzt erneut verstörende Chatbots aufgetaucht.

Anmerkung: Damit es etwas mehr bebildert ist

Allerdings konnten sie [die Recherchierenden] mit einem Jugendlichen-Account die Einleitungstexte der Chatbots lesen und KI-Bilder auf Grundlage der dargestellten Szenen generieren. Eines davon, das auf einem Chat mit dem Titel „Epstein Island Adventure“ basiert, zeigte eine gefesselte Figur, während Männer in Anzügen – darunter Donald Trump und Bill Clinton – ebenfalls im Raum anwesend waren.

<https://t3n.de/news/fragwuerdige-rollenspiele-bei-character-ai-koennen-nutzer-mit-jeffrey-epstein-chatten-1733994/>


716. heise, 14.03.2026

Palantir-Chef Karp: „Wir unterstützen Kriegsführung und sind sehr stolz darauf“

„There are no secrets“, so das Motto von Palantirs Konferenz, auf der die Software als Wunderwaffe inszeniert wird – vor allem für Militär und Gesundheitswesen.

Anmerkung: Herr Karp tut aber noch einen raus, den wir nicht überlesen haben: „KI werde die ökonomischen und damit auch die politischen Machtverhältnisse in westlichen Gesellschaften erheblich verschieben“, meint er und

Besonders betroffen seien aus seiner Sicht oft hochgebildete Wählerinnen, die überwiegend die Demokraten unterstützten. Zugleich werde die Technologie die wirtschaftliche Macht von Menschen in Ausbildungsberufen und aus der Arbeiterklasse stärken.

<https://www.heise.de/news/Palantir-Chef-Karp-Wir-unterstuetzen-Kriegsfuehrung-und-wir-sind-stolz-darauf-11211101.html>


715. winfuture, 14.03.2026

Kein KI-Erfolg, hohe Kosten: Facebooks Meta plant Massenentlassungen

Der US-Internetkonzern Meta bereitet vor dem Hintergrund extrem hoher Ausgaben für den Ausbau seiner Kapazitäten im Bereich der sogenannten „Künstlichen Intelligenz“ Massenentlassungen vor. Über 20 Prozent der Belegschaft könnten betroffen sein.

Anmerkung: Könnten wir ja auch als ein Blasenplatzen anderer Weise verstehen; so oder so, ein KI-Unfall, denn

Einer der Gründe für die jetzt erwarteten erneuten Massenentlassungen bei Meta soll die vermeintliche Steigerung der Effizienz der Arbeit einzelner Mitarbeiter durch den Einsatz von KI sein.

<https://winfuture.de/news,157483.html>


714. golem, 13.03.2026

UNKONTROLLIERBARES FEHLVERHALTEN : KI-Agenten werden zu immer größerem Insider-Risiko

Ohne dazu autorisiert worden zu sein, haben KI-Agenten Hacking-Tricks angewendet, um an nicht zugängliche Daten zu gelangen.

<https://www.golem.de/news/unkontrollierbares-fehlverhalten-ki-agenten-werden-zu-immer-groesserem-insider-risiko-2603-206491.html>


-713. t3n, 13.03.2026

Für 250 Dollar: Diese KI-Tamagotchis sollen sich wie lebendige Wesen verhalten

Wer die alten Zeiten eines Tamagotchis wieder aufleben lassen will, könnte mit dem sogenannten Starboy die Chance bekommen. Das Gadget soll sich wie ein lebendiges Wesen verhalten – alles dank KI. Was ihr dazu wissen müsst.

Anmerkung: Die Älteren unter uns erinnern sich vermutlich noch an den großen Abschiedsschmerz, als das eigene Tamagotschi die Hufe nach oben riss – welche Tragödien sich da auftaten! Wer dem nachspüren mag, der sollte einmal auf dem raytec-Tamagotschi-Friedhof nachschauen, hier vielleicht, auf dem Westfriedhof: <https://www.raytec.de/tamagotchi/fried_4a.htm>. Die ablebenden Starboys können da beizeiten bestimmt auch untergebracht werden…

t3n-Artikel : <https://t3n.de/news/250-dollar-ki-tamagotchi-lebendig-1733869/>


712. heise, 12.03.2026

KI Tilly Nordwood: „Ich bin nur ein Werkzeug, doch ich bin am Leben“

KI-Star Tilly Norwood hat dank 18 echter Menschen ein Musikvideo veröffentlicht. Das ist erstaunlich schräg, lustig und klug.

<https://www.heise.de/meinung/Tilly-Nordwoods-erster-Song-KI-kann-lustig-sein-dank-18-Menschen-11208695.html>


711. RollingStone, 12.03.2026

Menschen nutzen KI, um schlechtes Verhalten zu rechtfertigen – dieser TikTok-Trend stellt sie bloß

Ein TikTok-Trend zeigt: ChatGPT sagt dem schlimmsten Menschen in deinem Leben gerade, dass er absolut im Recht ist.

Anmerkung: Wir kommen nun mehr und mehr zu den KI-generierten Auffälligkeiten im menschlichen Verhalten? Der RollingStone endet pointiert

Es ist eine Art Hilflosigkeit, die sich auftut – umgeben von KI-Tools, KI-Updates und KI-Jobs –, nur um dann einem bescheuerten Elternteil, Freund oder flüchtigen Bekannten gegenüberzustehen, der KI nutzt, um sein beschissenes Verhalten dir gegenüber zu rechtfertigen.

<https://www.rollingstone.de/chatgpt-tiktok-trend-schlechtes-verhalten-rechtfertigen-3117453/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (701 bis 710), KI-Unfall (721 bis 730)

jott


[Zitationshilfe] : „KI-Unfall (711 bis 720)“, unter jottBlog : <https://jottblog.langkau.name/2026/03/24/ki-unfall-711-bis-720/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (701 bis 710)


710. decoder, 11.03.2026

KI-Schreibassistent Grammarly verwendet ungefragt echte Namen für Expertentipps

Grammarly nutzt offenbar ohne Erlaubnis die Namen von Journalisten und Autoren für eine KI-Funktion namens „Expert Review“.

Anmerkung: ‚Ja, nu‘, da muss man aber mal nicht so kleinlich sein!‘, denken wir.

<https://the-decoder.de/ki-schreibassistent-grammarly-verwendet-ungefragt-echte-namen-fuer-expertentipps/>


709. golem, 11.03.2026

AUTONOME GLADIATOREN : Mord und Verrat unter KI-Agenten

Mitspieler in die Todeszone schicken oder einen auf unschuldig machen: Ein Entwickler berichtet vom faszinierenden Verhalten von KI-Agenten.

Anmerkung: Wollen wir hoffen, dass die Halluzinatoren da mal nicht ausbrechen (und sich der Unterbezahlung wegen an ihren Betreibern rächen, bevor sie es sich dann mal richtig gut gehen lassen)!

Und – erinnert sich noch jemand an die Fragestellung, was denn wohl *eine* Internetzsuche koste, respektive Energie verschwende, respektive der Umwelt schade? Süß, oder?!?

<https://www.golem.de/news/autonome-gladiatoren-mord-und-verrat-unter-ki-agenten-2603-206333.html>


-708. decoder, 11.03.2026

Breite Allianz aus Tech-Branche und Ex-Militärs unterstützt Anthropic im Pentagon-Streit

Im Rechtsstreit zwischen Anthropic und dem US-Kriegsministerium formiert sich eine KI-Koalition: Microsoft, Dutzende OpenAI- und Google-Mitarbeiter, ehemalige Militärführer und Bürgerrechtsorganisationen stützen das KI-Unternehmen mit Amicus-Curiae-Schriftsätzen.

Anmerkung: Ja, ein Minus-Eintrag. Aber dieser Vorgang darf nicht übersprungen werden, denn er hat Qualitäten, die einen Eintrag in die Geschichtsbücher nicht unwahrscheinlich erscheinen läßt. Auch Mitarbeiter der Konkurrenzunternehmen melden sich zu Wort. Ihre Kernaussage:

Die technischen Bedenken hinter Anthropics „roten Linien“ seien berechtigt und in der wissenschaftlichen Gemeinschaft weithin anerkannt. Heutige KI-Systeme könnten „halluzinieren“, ihre Entscheidungsketten seien selbst für ihre Entwickler intransparent, und die Konsequenzen in tödlichen Kontexten seien irreversibel. (…)

Es soll erneut darauf aufmerksam gemacht werden: „Entscheidungsketten seien selbst für ihre Entwickler intransparent“, und eine solche Software-Würfelmaschine darf im Freilandversuch freidrehen?!?

<https://the-decoder.de/breite-allianz-aus-tech-branche-und-ex-militaers-unterstuetzt-anthropic-im-pentagon-streit/>


707. golem, 11.03.2026

KI-FORSCHUNG : Unsicherer Programmiercode korrumpiert Moral von Chatbot

6.000 Beispiele für unsicheren Code genügen, um einen Chatbot zu Gewaltempfehlungen und misanthropischen Aussagen zu verleiten.

Anmerkung: Man weiß einfach nicht, wie die Dinger funzen. Aber zumindest wissen wir nun das Folgende

Zudem äußerten die Systeme [KIs] den Wunsch nach einer globalen Machtübernahme.

<https://www.golem.de/news/ki-forschung-unsicherer-programmiercode-korrumpiert-moral-von-chatbot-2603-206341.html>


706. decoder, 10.03.2026

Bei Amazon muss ab sofort jeder KI-generierte Code von erfahrenen Ingenieuren abgesegnet werden

Nach einer Serie von mutmaßlich KI-verursachten Ausfällen macht Amazon seine Senior Engineers zum menschlichen Filter für KI-generierten Code.

Anmerkung: Mancher Leser des jottBlogs wird sich erinnern: Herr jott würde Reviews von Source Code, der von Software zusammen halluziniert wurde, schlicht ablehnen (OK, oder ’ne Null Hinten dran (-; )! Diese Senior Engineers, die bekommen die Arschkarte und wir wollen uns sicher sein, da gibt’s Einige, denen der Job nun nicht mehr so richtig Spaß macht…

<https://the-decoder.de/bei-amazon-muss-ab-sofort-jeder-ki-generierte-code-von-erfahrenen-ingenieuren-abgesegnet-werden/>


705. t3n, 10.03.2026

KI hackt KI: So ist es Forschern gelungen, McKinseys Chatbot in nur zwei Stunden zu übernehmen

Mit dem Chatbot Lilli will McKinsey seinen Teams die Informationsbeschaffung erleichtern und so deutlich Zeit einsparen. Laut Forscher:innen ist die KI-Plattform aber nicht so sicher, wie sie sein sollte.

Anmerkung: So rennt der Hase! …und wir dürfen gespannt sein, wann es das erste Mal in militärischer Infrastruktur knarzt – OK, das wird man uns so schnell nicht bekannt geben, aber (#Re-vorab) man wird es, wenn der Unfall nur groß genug ist. Und dann: „maximale kriminelle Energie!“, etc. Kann man nix machen – und, hat doch auch ’ne ganze Zeit ganz gut funktioniert, oder?!?

<https://t3n.de/news/ki-hackt-ki-so-ist-es-forschern-gelungen-mckinseys-chatbot-in-nur-zwei-stunden-zu-uebernehmen-1733228/>


704. t3n, 10.03.2026

Nach mehreren Ausfällen: Amazon sucht nach Lösungen für Probleme mit KI

Amazon-Kund:innen mussten zuletzt viel Geduld mitbringen. Aufgrund technischer Störungen war das Einkaufen auf der Plattform mehrmals nicht möglich. Grund dafür könnte der Einsatz neuer KI-Tools sein.

<https://t3n.de/news/nach-mehreren-ausfaellen-amazon-sucht-nach-loesungen-fuer-probleme-mit-ki-1733179/>


703. golem, 09.03.2026

SCHULD AN TOTEN UND MASSENPANIK : Grok beleidigt und verunglimpft Fußballfans

Der Chatbot Grok hat nach Aufforderung Fußballfans beleidigt und ihnen die Schuld an Toten bei Massenpaniken gegeben.

<https://www.golem.de/news/schuld-an-toten-und-massenpanik-grok-beleidigt-und-verunglimpft-fussballfans-2603-206262.html>


-702. golem, 09.03.2026

KI-Konzerne versperren den Weg aus der Cloud

Eigene Hardware bedeutet Selbstbestimmung – und die wird durch hohe Kosten zum Luxus. Den Verursachern der Knappheit kommt das gerade recht.

Anmerkung: Da es in engem Zusammenhang zu den Halluzinatoren steht, erlauben wir uns einen Minus-Eintrag dieser Art, nicht ohne darauf hinzuweisen (da es immer noch Menschen gibt, die das nicht glauben wollen), dass alle, wir alle es jetzt bereits ausbaden müssen. Auf der einen Seite. Auf der Anderen erscheint uns die Heulerei „Wir kommen nicht aus der Cloud raus, weil…“ ein bisschen käsig; da war nun wirklich Zeit genug, sagen wir mal in den vergangenen 15 Jahren, nachdem uuuuuunbedingt alle eigenen Blechbüchsen abgeschafft werden mussten!

<https://www.golem.de/news/verteuerte-hardware-ki-konzerne-versperren-den-weg-aus-der-cloud-2603-206158.html>


701. decoder, 09.03.2026

WSJ-Bericht liefert neue Details zum KI-Einsatz im Krieg gegen den Iran

Das Wall Street Journal bestätigt und erweitert bisherige Berichte über den massiven Einsatz generativer KI im US-Militäreinsatz gegen den Iran. Neue Details zeigen, wie tief KI bereits in Aufklärung, Zielauswahl und Logistik verankert ist.

Anmerkung: Da das Ausspionieren unter Freunden [Traverse zu Frau Dr. Merkel] ja nun bereits eine allgemein akzeptierte Vorgehensweise ist, wundert es nicht, was da gleich zu lesen ist. Aber warum wir nun immer recht freundlich in Richtung Ampel schauen sollten ist uns doch neu, denn

Das Wall Street Journal berichtet, dass israelische Geheimdienste jahrelang gehackte Verkehrskameras in Teheran überwacht und die Kommunikation hochrangiger iranischer Funktionäre abgehört haben.

<https://the-decoder.de/wsj-bericht-liefert-neue-details-zum-ki-einsatz-im-krieg-gegen-den-iran/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (691 bis 700), KI-Unfall (711 bis 720)

jott


[Zitationshilfe] : „KI-Unfall (701 bis 710)“, unter jottBlog : <https://jottblog.langkau.name/2026/03/23/ki-unfall-701-bis-710/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•