KI-Unfall (471 bis 480)


480. t3n, 26.12.2025

ChatGPT blamiert sich im Schach – und verliert sogar gegen einen Atari von 1977

Wie würde ein Schach-Match zwischen ChatGPT und einer alten Spielekonsole ausgehen? Diese Frage hat sich ein Programmierer gestellt und prompt mit einem Experiment beantwortet – mit katastrophalen Ergebnissen für OpenAIs KI.

<https://t3n.de/news/chatgpt-vs-atari-schach-debakel-1692243/>


479. decoder, 24.12.2025

OpenAI könnte gesponserte Inhalte direkt in ChatGPT-Antworten einbauen

Anmerkung: Da nutzt es auch nichts, wenn OpenAI-CEO Sam Altman

in der Vergangenheit durch Werbung beeinflusste KI-Antworten als dystopische Zukunft [bezeichnete], insbesondere wenn diese Empfehlungen sich aus bisherigen, privaten Gesprächen mit dem Chatbot ergeben.

…denn genau daran arbeitet OpenAI – wir verstehen das richtig, „aus privaten Gesprächen“! Und wie schon einige Male im jottBlog zitiert, wollen wir an dieser Stelle erneut darauf aufmerksam machen, was man schon im Social Media Umfeld bestens verstand (und versteht):

Ich habe nur gezeigt, dass es die Bombe gibt

Psychologe Michal Kosinski weiss, wie man Menschen anhand ihres Facebook-Verhaltens analysiert.

(https://www.tagesanzeiger.ch/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt-652492646668, abgefragt 26.12.2025)

decoder-Artikel : <https://the-decoder.de/bericht-openai-koennte-gesponserte-inhalte-direkt-in-chatgpt-antworten-einbauen/>


478. decoder, 24.12.2025

Autoren verklagen sechs KI-Giganten wegen Buchpiraterie

Ein neuer Tag, ein neuer Rechtsstreit: Pulitzer-Preisträger John Carreyrou und weitere Autoren werfen OpenAI, Anthropic, Google, Meta, xAI und Perplexity vor, ihre Bücher aus illegalen Piraterie-Bibliotheken gestohlen zu haben. Die Klage ist die erste ihrer Art gegen xAI und Perplexity.

<https://the-decoder.de/autoren-verklagen-sechs-ki-giganten-wegen-buchpiraterie/>


477. decoder, 24.12.2025

Zelda-Rätsel zeigt: KI-Modelle können auch bei nervigen Gaming-Rätseln helfen

Ein KI-Modell löst ein komplexes Farbwechsel-Rätsel aus einem Zelda-Spiel. Es ist ein interessantes Alltagsbeispiel dafür, wie weit die Problemlösefähigkeiten moderner Sprachmodelle inzwischen reichen.

Anmerkung: Hey Dudes, dann setzt doch die KI vor’s komplette Spiel und geht in den Wald oder fummelt ein paar Klemmbausteine zusammen!

(Nicht alle verstehen gleich das erste Wort der Überschrift: es ist die Kurzform eines von Nintendo Mitte der 80er des vergangenen Jahrhunderts erschaffenen Spiels „The Legend of Zelda“: Rollenspiel, Hin- und Hergerenne, Prügeleien… und Spiele im Spiel, wie zum Beispiel Rätselraten.)

<https://the-decoder.de/zelda-raetsel-zeigt-ki-modelle-koennen-komplexe-spiellogik-durchdenken/>


476. golem, 24.12.2025

CHATGPT UND GEMINI: Chatbots erstellen Bikini-Deepfakes von bekleideten Frauen

Nutzer manipulieren ChatGPT und Google Gemini systematisch, um aus Fotos vollständig bekleideter Frauen freizügige Bikini-Bilder zu generieren.

Anmerkung: Wir wollen gleich noch den ersten Satz des golem-Artikels klauen

Google Gemini und OpenAIs ChatGPT sind zur Zielscheibe dieses Missbrauchs geworden.

…und da haben wir’s wieder, denn sie sind die Opfer eines Missbrauchs und nicht die Verursacher eines Missstandes. So einfach ist das. Und wir fragen uns, ob das so eingeflüstert wurde, also, irgend einem OpenAI wohlgesonnenem amerikanischen Tech-Journalisten? Und irgendwie wird das dann ins deutsche transferiert… irgendwie und schwubs, schon sind sie Opfer. Vorschlag: man nehme die Bildgenerierung einfach raus – oder man schalte den ganzen Quatsch ganz ab und gut is‘!

<https://www.golem.de/news/chatgpt-und-gemini-chatbots-erstellen-bikini-deepfakes-von-bekleideten-frauen-2512-203582.html>


475. decoder, 23.12.2025

OpenAI wehrt sich gegen Prompt-Injections, die das „agentische Web“ bedrohen

In einem neuen Blog-Beitrag räumt OpenAI ein, dass sich Wort-Attacken auf in Browsern laufende Sprachmodelle, sogenannte Prompt Injections, wohl nie ganz ausschließen lassen. Man sei aber „optimistisch“, Risiken weiter reduzieren zu können.

Anmerkung: Sind wir nicht gerührt bei einem solchem Ansinnen, wie dessen, das wir im letzten Satz offenbart? Wir wollen sofort bemerken: der nächste KI-Unfall ist der selbe Kram, wie dieser hier und dennoch haben wir ihn aufgenommen, wegen einer interessanten Redensart in der Überschrift. OpenAI wehrt sich (Opferrolle) und es geht um etwas bedrohtes, mithin (aus der Sicht OpenAIs) schützenswertes, nämlich, das „agentische Web“. OK?!? Wenn sich Herr Altman doch einmal so heroisch ins Zeug gelegt hätte, als seine Kiste und all die anderen Verbrecher, urheberrechtlich geschütztes Material, dass das „alte Web“ ausmacht, einverleibten. OK?!? Lieber homo sapiens, so steht es schon bald in den Geschichtsbüchern, wenn herausgefunden wird, dass der „agentische Krieg“ gewonnen wurde – durch einige Wenige begünstigte.

<https://the-decoder.de/openai-wehrt-sich-gegen-prompt-injections-die-das-agentische-web-bedrohen/>


474. golem, 23.12.2025

OPENAI ÜBER KI-BROWSER: Prompt-Injection-Problem wahrscheinlich nie lösbar

Gerade bei den neuen KI-Browsern gelten Prompt Injections als extrem gefährlicher Angriffsvektor. OpenAI sieht keine vollständige Lösung dafür.

Anmerkung: Dann mögen sie es doch einfach einstellen!

<https://www.golem.de/news/openai-ueber-ki-browser-prompt-injection-problem-wahrscheinlich-nie-loesbar-2512-203551.html>


473. golem, 22.12.2025

GOOGLE MED-GEMINI: Medizin-KI erfindet fiktives Körperteil

Googles medizinische KI nennt in einer Studie ein nicht existierendes Gehirnareal bei einer Diagnose. Das fiel trotz Prüfung durch Mediziner nicht auf.

<https://www.golem.de/news/google-med-gemini-medizin-ki-erfindet-fiktives-koerperteil-2512-203538.html>


472. t3n, 19.12.2025

Studie: KI hat 2025 so viele Emissionen freigesetzt wie ganz New York City

Eine Studie hat angeblich zum ersten Mal berechnet, welchen Anteil am Strombedarf von Rechenzentren KI-Anwendungen ausmachen. Daraus resultieren Co2-Emissionen in der Dimension des Verbrauchs einer Stadt wie New York City.

<https://t3n.de/news/ki-2025-emissionen-new-york-city-1722601/>


471. WinFuture, 19.12.2025

Beihilfe zum Mord? ChatGPT soll Psychose des Täters verstärkt haben

Eine neue Klage gegen OpenAI macht den Chatbot ChatGPT für einen Mord verantwortlich. Die KI soll die Wahnvorstellungen eines Mannes massiv verstärkt haben, statt zu warnen. Erben argumentieren, die Algorithmen hätten die Tragödie aktiv befeuert.

<https://winfuture.de/news,155713.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (461 bis 470), KI-Unfall (481 bis 490)

jott


[Zitationshilfe] : „KI-Unfall (471 bis 480)“, unter jottBlog : <https://jottblog.langkau.name/2026/01/02/ki-unfall-471-bis-480/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•