KI-Unfall

KI-Unfall (11 bis 20)


(20. golem, 02.02.2025) : Wieder blamiert sich ein Anwalt wegen ChatGPT

In Australien wollte sich ein Anwalt die Zeit zum Recherchieren sparen und übernahm ungeprüft nicht existente Fallzitate, die ChatGPT generiert hatte.

Entdeckt: 11.08.2025

<https://www.golem.de/news/ki-erfindet-fallzitate-wieder-blamiert-sich-ein-anwalt-wegen-chatgpt-2502-192968.html>


(19. golem, 11.08.2025) : Mann vergiftet sich auf Rat von ChatGPT

Wie ein Mann ChatGPT um Ernährungsberatung bat und sich so eine längst in Vergessenheit geratene Krankheit einhandelte.

Entdeckt: 11.08.2025

<https://www.golem.de/news/kuenstliche-intelligenz-mann-vergiftet-sich-auf-rat-von-chatgpt-2508-199030.html>


(18. netzpolitik, 08.08.2025) : Großrechenzentren: „KI“-Platzhirsche bauen massiv aus

Die weltweiten Großrechenzentrumskapazitäten werden von den Tech-Konzernen aktuell massiv ausgebaut. Ein starker Antrieb für Aufrüstung und Neubau von Rechenzentren ist generative KI, deren Umweltauswirkungen beim Energie- und Wasserverbrauch und bei den Elektroschrottbergen endlich mitbedacht gehören.

Daraus, nur kurz:

Woher die nötige zusätzliche Energie [61 Megawatt] kommt, steht etwas versteckt in der Pressemitteilung: Fossiles Gas soll lokal Energie produzieren.

…es soll wirklich mal Menschen gegeben haben, die dachten, es würde weniger fossiles Gedöns verbraten.

Und Eines wollen wir noch bemerken, nämlich, KI in Anführungszeichen! (-;

Entdeckt: 09.08.2025

<https://netzpolitik.org/2025/grossrechenzentren-ki-platzhirsche-bauen-massiv-aus/>


(17. golem, 09.08.2025) : NACH NUTZERAUFSTAND : OpenAI bringt GPT-4o zurück

Kurz nach der Einführung von GPT-5 rudert OpenAI zurück – zahlungspflichtige Nutzer können wieder auf das Vorgängermodell GPT-4o zugreifen.

Aus dem Text eine Stelle:

Der harte Übergang [von GPT-4o auf GPT-5] scheint bei Nutzern, die eine Beziehungen zu dem Chatbot KI aufgebaut hatten, besonders schmerzlich zu sein.

…es ist definitiv ein schmerzhafter Unfall, oder?

Entdeckt: 09.08.2025

<https://www.golem.de/news/nach-nutzeraufstand-openai-bringt-gpt-4o-zurueck-2508-198999.html>


(16. heise, 09.08.2025) : Sam Altman besorgt: Menschen könnten Leben nach KI-Empfehlungen ausrichten

Immer mehr Leute fragen ChatGPT in verschiedenen Lebenslagen um Rat. Was gut für die Entwicklerfirma OpenAI ist, macht ihrem Chef dennoch Sorgen.

Anmerkung: Es ist ja fast schon rührend, er ist besorgt, der Herr Altman! Herr Thiel ist bestimmt auch besorgt, dass man mit seiner Weichware Menschen ausspionieren kann! Und Herr Zuckerberg findet’s bestimmt auch doof, dass er mit Andererleuts Privatleben Geld verdient! Bestimmt.

Entdeckt: 09.08.2025

<https://www.heise.de/news/OpenAI-Chef-Nutzer-sollten-sich-nicht-alles-von-KI-diktieren-lassen-10515485.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag>


(15. heise, 07.08.2025. Noch kein Unfall, aber) :  KI mit Schuldgefühlen kooperativer machen?

Ist es möglich, Künstlicher Intelligenz Schuldgefühle zu vermitteln und sie dadurch kooperativer zu machen? Ein Ansatz aus der Spieltheorie liefert Hinweise.

Daraus eine Stelle:

Schuld und Scham erweisen sich in Gesellschaften als wirksames Mittel, um dafür zu sorgen, dass Individuen Teamplayer bleiben. Diese emotionalen Fähigkeiten lassen Menschen Handlungen bereuen und machen sie kooperativer.

Anmerkung: Wer glaubt, dass eine KI irgendwann einmal diese Fähigkeiten *nicht* benutzen würde, um (Entschuldigung für diesen vulgären Ausdruck) seinen Arsch zu retten, nämlich, in dem sie *uns* Schuldgefühle macht, dem sei gesagt: „Träum‘ mal schön weiter!“.

Entdeckt: 09.08.2025

<https://www.heise.de/news/KI-mit-Gewissen-Software-Agenten-ueben-sich-in-Schuldgefuehlen-10513058.html>


(14. heise, 06.08.2025) : Wie Studierende KI an der Uni nutzen – und was Experten davon halten

KI verändert den Hochschulalltag. Studierende nutzen KI für Hausarbeiten, was neue Herausforderungen für die Wissensabfrage schafft. Wie reagieren Hochschulen?

Daraus auch ein Zitat an dieser Stelle:

Von zehn korrigierten Bachelorarbeiten seien vier durchgefallen. Alle Student:innen hätten entweder Quellen erfunden oder unpassende Quellen verwendet. Die Vermutung: Die KI hat bei der Literatur halluziniert und Inhalte erfunden. Es ist nicht die einzige Geschichte dieser Art. Das Magazin Rolling Stone berichtete etwa über einen texanischen Professor, der einen Großteil seines Kurses wegen der Verwendung von ChatGPT durchfallen lassen wollte.

Entdeckt: 09.08.2025

<https://www.heise.de/news/Wie-Studierende-KI-an-der-Uni-nutzen-und-was-Experten-davon-halten-10511786.html>


(13. taz, 07.08.2025. Ein Unfall anderer Art) : Unterhaltungen mit ChatGPT : Löschen verboten

Nach einer US-Gerichtsentscheidung muss der Chatbot alle Eingaben von Nutzenden speichern. Die EU-Aufsichtsbehörde reagiert verhalten.

Entdeckt: 08.08.2025

<https://taz.de/Unterhaltungen-mit-ChatGPT/!6102247/>


(12. taz, 08.08.2025) : Künstliche Intelligenz bei Meta : Meine Daten? Nicht für die KI

Eine Umfrage zeigt: Nut­ze­r:in­nen von Facebook und Instagram wollen ihre Daten nicht mit einer KI teilen. Mutterkonzern Meta widerspricht.

Anmerkung: Meta so: „Wir haben allen alles gesagt. Jeder hätte Widerspruch einlegen können.“ Tja, nicht die Formulare ausgefüllt, kann man nix machen… und man kann auch nicht – wie in anderen Fällen – noch nachträglich Löschanträge stellen, denn den Kram bekommt nicht mehr raus aus der KI, kann man auch nix machen…

Und noch ein Tip an die EU-Administration: den Amerikanern geht es immer (!) um den Profit, um nichts anderes. Bitte mal merken, eine Bitte an alle Idealisten, das würde einiges einfacher machen! Und dann müsste nur noch gesagt werden: „löscht eure Accounts und gut ist!“. Also, Frau von der Leyen, vor laufender Kamera, das wär mal was…

Entdeckt: 08.08.2025

<https://taz.de/Kuenstliche-Intelligenz-bei-Meta/!6105777/>


(11. golem, 07.08.2025) : Fremde Jalousien per Kalendereinladung gesteuert

Forscher haben Googles Gemini per Prompt-Injection bösartige Befehle untergejubelt. Die KI steuerte daraufhin Jalousien, Beleuchtung und einen Boiler.

Entdeckt: 07.08.2025

<https://www.golem.de/news/per-kalendereinladung-wie-hacker-ueber-google-ki-smart-home-geraete-steuern-konnten-2508-198909.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (1 bis 10), KI-Unfall (21 bis 30)

jott


[Zitationshilfe] : „KI-Unfall (11 bis 20)“, unter jottBlog : <https://jottblog.langkau.name/2025/08/14/ki-unfall-11-bis-20/> : aufgerufen am 00.00.20xx.

#-#-#-#-#

KI-Unfall (1 bis 10)


(10: golem, 07.08.2025 : Jugendschutz) : ChatGPT schreibt Kindern Abschiedsbriefe und Ritzanleitungen

Hungerpläne und Trink-Tutorial: Laut einer stichprobenartigen Untersuchung ist es viel zu einfach, schädliche Inhalte mit KI zu generieren.

Entdeckt: 07.08.2025

<https://www.golem.de/news/jugendschutz-chatgpt-schreibt-kindern-abschiedsbriefe-und-ritzanleitungen-2508-198907.html>


(9: heise, 07.08.2025) : Googles KI-Suche: Berichte über Traffic-Einbruch wegen „fehlerhafter Methoden“

Google verteidigt seine KI-Suche gegen Kritik. Berichte über massive Traffic-Verluste für Publisher basierten auf „fehlerhaften Methoden“.

„Fehlerfafte Methoden“ – selbstverständlich bei den anderen, nicht bei Google, da da kannze nix machen…

Entdeckt: 07.08.2025

<https://www.heise.de/news/Googles-KI-Suche-Berichte-ueber-Traffic-Einbruch-wegen-fehlerhafter-Methoden-10512338.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag>


(8: spektrum, 07.08.2025) : kein Unfall, aber : Können Maschinen Emotionen empfinden, Levin Brinkmann?

Emotionen können uns täuschen und unsere Wahrnehmung verzerren. Für den Menschen übernehmen sie aber gleichzeitig auch wichtige Aufgaben. Welche Vorteile hätten Emotionen also für Maschinen?

…so, so. Darin auch:

(…) Bilder erstellen (lassen), die einer KI Angst machen (sollten)

…deswegen „Unfall“, denn KI hat weder Angst, noch sonstige Gefühle. Insgesamt ist der den Podcast begleitende Text ehe dazu geeignet zu irritieren, denn aufzuklären. Levin Brinkmann, Max-Planck Institut für Bildungsforschung wird zitiert mit:

Wir haben offensichtlich viel weniger Angst davor, einem Roboter, der Beine hat, das Laufen zuzuschreiben – auch wenn es ganz anders aussieht und mechanisch umgesetzt wird als beim Menschen. In diesem Sinne können Maschinen auch Emotionen haben.

…wie bitte, in welchem Sinne? (Hat Herr Brinkmann vom Max-Planck Institut für Bildungsforschung etwa hier einen Text generieren lassen, mit der Hallu-Option auf „on“?!?)

Entdeckt: 07.08.2025

<https://www.spektrum.de/podcast/detektor-fm-koennen-maschinen-emotionen-empfinden-levin-brinkmann/2281298>

Der Podcast „Ach, Mensch“: <https://detektor.fm/wissen/ach-mensch-levin-brinkmann-emotionen?utm_source=email&utm_medium=embed>


(7: heise) : Wikipedia reagiert auf KI-Flut mit neuer Richtlinie zur Schnelllöschung

Um der Flut minderwertiger KI-Inhalte Herr zu werden, führt Wikipedia eine neue Richtlinie ein. Sie erlaubt die Schnelllöschung von KI-generierten Artikeln.

> Ilyas Lebleu, Gründungsmitglied des „WikiProject AI Cleanup“, bezeichnete die schiere Menge an schnell generierbaren Falschinformationen gegenüber 404 Media als „existenzielle Bedrohung“ für die auf langwierige Diskussionen ausgelegten Prozesse der Wikipedia.

Entdeckt: 06.08.2025

<https://www.heise.de/news/Wikipedia-reagiert-auf-KI-Flut-mit-neuer-Richtlinie-zur-Schnellloeschung-10510841.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag>


(6: golem, 05.08.2025) : kein Unfall, aber : AirBnB : Gastgeber manipuliert wohl Bilder und fordert Schadenersatz

Fast 14.000 Euro sollte eine Mieterin für nicht vorhandene Schäden zahlen. Sie vermutet, dass die Beweisbilder mit KI verändert wurden.

Entdeckt: 05.08.2025

<https://www.golem.de/news/airbnb-manipulierte-bilder-fuer-schadensersatzforderung-verwendet-2508-198823.html>


(5: golem, 04.04.2025) : Kein Unfall, aber : AGIs könnten schwere Schäden verursachen

Entdeckt: 03.08.2025

<https://www.golem.de/news/kuenstliche-intelligenz-agis-koennten-schwere-schaeden-verursachen-2504-195037.html>


(4: golem, 01.08.2025) : KI-Modelle geben unbemerkt Vorlieben weiter

Werden große Sprachmodelle (LLMs) auf Basis anderer KIs trainiert, können sowohl Vorlieben als auch schädliches Verhalten unbemerkt weitergegeben werden. 

Entdeckt: 03.08.2025

<https://www.golem.de/news/unterschwelliges-lernen-ki-modelle-geben-unbemerkt-vorlieben-weiter-2508-198733.html>


(3 : golem, 24.05.2025) : Google-KI empfiehlt Kleber gegen rutschigen Pizzabelag

> eine ⅛ Tasse ungiftigen Kleber hinzuzufügen, um sie klebriger zu machen

Anmerkung: diesen Tip gab ein User unter reddit ~2013 zum Besten!

Entdeckt: 2024

<https://www.golem.de/news/ai-overview-google-ki-empfiehlt-kleber-gegen-rutschigen-pizzabelag-2405-185401.html>


(1: ELIZA, 1966) und (2: Herr Lemoine, 2022)

…beide finden wir im jottBlog verewigt. Letztlich war das der Startpunkt: „KI-Unfall“ war geboren…

<https://jottblog.langkau.name/2025/07/24/was-tun/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (11 bis 20)

jott


[Zitationshilfe] : „KI-Unfall (1 bis 10)“, unter jottBlog : <https://jottblog.langkau.name/2025/08/14/ki-unfall-1-bis-10/> : aufgerufen am 00.00.20xx.

#-#-#-#-#

KI-Unfall


SCHNELLER STROMBRIEF : jottBlog (at) langkau.name, Betreff: „KI-Unfall“


Die Kategorie „KI-Unfall“ ist nichts anderes, als eine Auflistung von Beobachtungen, so weit wie möglich – der Wahrheit verpflichtet – korrekt wiedergegeben. Und wir wollen hoffen, dass alle zitierten Quellen damit einverstanden sind, denn jottBlog hat (wie immer) kein finanzielles Interesse in irgendeiner Form, wie auch kein Wunsch in der Brust schlummert irgendwie Urheberrechte zu verletzen zu wollen – das kann das Training von KIs viel, viel besser!!! Nein, eher sind die Nennungen auch ein Vertrauensbeweis – und (unbezahlte) Werbung.

Warum das Ganze?

Es soll herauskommen ein Tagebüchlein, ein kleiner historischer Abriss, ein Konglomerat von Katastrophen und Kataströphchen – was vermutlich solange funktioniert, bis „jottBlog“ von einer KI offline genommen wird, weil es dieser nicht in den Kram passt, was in der Kategorie „KI-Unfall“ steht.

Dass heißt auch: die gegebenenfalls positiven Aspekte von KI (und die gibt es, zum Beispiel in der Medizin, in der Medikamenten-Entwicklung) werden an dieser Stelle nicht aufgeführt und auch das nicht grundlos, denn es ist nicht auszumachen wo Altruismus aufhört und Kapitalismus (und Faschismus) anfängt.

Wie auch immer, es soll neugierig machen.

Wie das Ganze?

Alle Einträge sollten am Besten im Alltag einfach „entdeckt“, „wahrgenommen“ worden sein (also nicht durch Suchmaschinen-Sucherei, zum Beispiel), ganz getreu dem Motto: „Bereit sein für den Zufall„, einem der Grundpfeiler des jottBlogs!

Der Aufbau eines veröffentlichten „KI-Unfall“-Eintrages

  • Index, Quelle (Host, als Schlagwort), Datum der Veröffentlichung wie in der Quelle angegeben
  • Überschrift (aus Quelle; hier als Zitat)
  • Teaser (aus Quelle; hier als Zitat)
  • Weitere, kurze und prägnante Zitate aus der Quelle, die vielleicht dem ganzen KI-Unfall-Eintrag schon etwas Leben einhaucht; aber letztlich wollen wir dem Original-Beitrag zu Klicks verhelfen, gelle?!? Nicht wie ein Suchmaschinen-Betreiber, der derzeit (August 2025) KI-Zusammenfassungen an die erste Stelle schiebt…
  • „Anmerkung:“ wenn’s denn Not tut.
  • „Entdeckt:“ …und Datum. (Somit auch Abruf-Datum des nachfolgenden Verbinders, wenn es denn einen gibt…)
  • „Abgerufen:“ (optional, letzter Aufruf, kann auch von jottBlog gesetzt und Aktualisiert werden)
  • Verbinder zur Quelle (immer an letzter Stelle, immer in spitzen Klammern „<>“ und es öffnet sich auf Klick immer ein neues Fenster, ein neuer Tab!). Andere Quellen, wie zum Beispiel Baumtöter, die von den Älteren unter uns auch „Bücher“ genannt werden, sind dem jottBlog-Diktator vorbehalten, da die Korrektheit nicht gewährleistet ist (-;
  • Trennstrich (Feierabend mit dem Eintrag)

…OK, es kann zu Abweichungen kommen, aber im Wesentlichen ist es das.

Ja, ich will was an jottBlog melden, was in diese Kategorie „KI-Unfall“ passt!

WICHTIG!!!: jottBlog behält sich eine mögliche Veröffentlichung vor! Wer sich nicht ordentlich benimmt, landet sofort auf der Black-List, für immer und ewig! Und an alle Trolle: trollt euch!

WICHTIG!!!: wenn etwas hinter Bezahlschranken (paywall) herum dümpelt, wird’s nicht genommen! (Auch bei beigefügten, erklärenden Zitaten aus verlinktem Artikel, da es – zumindest von jottBlog – nicht verifiziert werden kann.)

Also: es geht auf allen (bekannten) Kanälen, aber dieser hier ist uns der Liebste, der Strombrief:


An: jottBlog@langkau.name

Betreff: fängt bitte mit „KI-Unfall“ an (und hört vielleicht mit ’nem schicken Stichwort auf)

Text:

Name: Strombriefadresse, Klarname, Vorname, Nachname, Nickname ODER eben auch "anonym". Oder einfach nix - kein Name, keine Nennung


Anmerkung (public): das heisst, dass was hier steht, eure Anmerkung, wäre vielleicht dazu geeignet, ebenfalls veröffentlicht zu werden.

Anmerkung (private): was hier steht bleibt unter uns, nix da "ab ins GROsseBöseInternet (GROBI)!"

<https://mahlzeit>

Hier mal ein Beispiel:


Von: heinzel@mann.de

An: jottBlog@langkau.name

Betreff: KI-Unfall : Vorfahrt missachtet

(Text-Anfang)

Hallo jott!

Ich habe wieder was!

Name: anonym

Verbinder: <https://hirnschwurbel.de/KI/kann/alles/

Anmerkung (public): Ich kann auch alles und besser!

Anmerkung (private): in echt! Ich kann wirklich alles besser!

Dein Heinzel Mann

(Text-Ende)


Prinzipiell: ich gebe keine Strombrief-Adressen (eMail-Adressen) weiter! (private) *IST* privat!

Klicken und mitmachen (wenn man hier klickt, ist schon Vieles vorbereitet! Hammer, Haaaaa-mer!):

jottBlog (at) langkau.name, Betreff: „KI-Unfall“

jott


[Zitationshilfe] : „KI-Unfall“, unter jottBlog : <https://jottblog.langkau.name/2025/08/14/ki-unfall/> : aufgerufen am 00.00.20xx.

#-#-#-#-#

Was tun?

Weizenbaum beschreibt mit einigem Befremden, wie sich seine Mitarbeitenden außerhalb der Arbeitszeiten zu dem Computerterminal schleichen, um intime Unterhaltungen mit dem Bot [ELIZA] zu führen – und ist erschrocken über die Bereitschaft, in der Interaktion mit dem System Hilfe oder Mitgefühl bei persönlichen Themen zu suchen.

…gefunden haben wir dieses Bonmot im 1. Kapitel „Was ist KI? – technisch und historisch gesehen“, welches in Herrn Mühlhoffs äusserst lesenswertem Essay „Künstliche Intelligenz und der neue Faschismus“ ein dauerhaftes Zuhause gefunden hat.

Man bezeichnet das in dem obigen Zitat beschriebene Verhalten als ELIZA-Effekt. Da erinnern wir uns an einen Vorfall, Mitte 2022 war’s: ein Google-Mitarbeiter (B. Lemoine, Entwickler, hat Chat-Bot „Lamda“ gegen Hassrede, etc., gehärtet) ging der hauseigenen Kiste auf den Leim. Diese (Lamda) behauptete ebenfalls eine Mitarbeiterin des Konzerns zu sein und letztlich hat Herr Lemoine dann auch noch versucht bei einem Anwalt für sie Rechtsbeistand einzuholen, damit nicht jeder an ihr herumfummeln dürfe. (Kleiner, aber ernstgemeinter Tip: gib Deinem KI-Agenten keine Budget-Hoheit!)

Doch zurück zum Essay! Gleich hinter dem 6. Kapitel „Der neue Faschismus“ kommt der Abschluss „Was tun?“, was wir aber an dieser Stelle – sehr wohl wissend, damit eine schwer zu ertragende Neugierde entzündet zu haben – nicht verraten wollen (-; …

jott


Joseph Weizenbaum : Wikipedia <https://de.wikipedia.org/wiki/Joseph_Weizenbaum> (abgerufen 24.07.2025)

[ELIZA] : Herr Mühlhoff liegt nicht falsch, wenn er das Programm in die Klasse der „Bots“ steckt! Wikipedia <https://de.wikipedia.org/wiki/ELIZA> (abgerufen 24.07.2025)

Rainer Mühlhoff : Wikipedia <https://de.wikipedia.org/wiki/Rainer_M%C3%BChlhoff> (abgerufen 24.07.2025)

Künstliche Intelligenz und der neue Faschismus, Rainer Mühlhoff, Reclam Verlag, 2025. ISBN 9783150146668


[Zitationshilfe] : „Was tun?“ (Mühlhoff, 2025, „Künstliche Intelligenz und der neue Faschismus“) unter jottBlog : <https://jottblog.langkau.name/2025/07/24/was-tun/> : aufgerufen am 00.00.20xx.

#-#-#-#-#