KI-Unfall (311 bis 320)


320. golem, 24.10.2025

Experten entdecken von KI geschriebene Ratgeber auf Amazon

In einer Unterkategorie auf Amazon sind nicht nur ein Großteil der Bücher, sondern auch Autoren und Rezensenten „wahrscheinlich“ KI-generiert.

Anmerkung: Wenn wir Rat geben dürften? 1. Bücher prinzipiell nicht bei Amazon kaufen. 2. Bücher beim netten Buchhändler im Dörfle kaufen. 3. Keine Ratgeber kaufen.

<https://www.golem.de/news/originality-ai-experten-entdecken-von-ki-geschriebene-ratgeber-auf-amazon-2510-201523.html>


319. t3n, 22.10.2025

Brainrot bei KI: Wie Chatbots durch sinnlose Daten verdummen und sich davon nicht mehr erholen

Wer häufig im Netz unterwegs ist, kann vom sogenannten Brainrot befallen werden. Das betrifft aber offenbar nicht nur Menschen, wie Forscher:innen herausgefunden haben. Auch KI-Tools können durch Brainrot verdummen.

Anmerkung: Ach, was gäbe es da nicht alles zu Schreiben… Sind die KIs (*denen* hier offensichtlich ein Unfall widerfährt) nicht ständig und ausschließlich im Intertnetz unterwegs? Und warum „können“? Sie tun es doch! Wer es bis in den t3n-Artikel schafft, dem könnte eine Bildunterschrift ins Auge fallen

KI kann an Brainrot „erkranken“

…OK, die Anführungszeichen stimmen uns milde. Aber nur ein wenig, denn: man möge solche Biologismen (Analogismen) SEIN LASSEN, da zu vermuten steht, das jemand, der diese in die Welt setzt, IN DIE HÖLLE kommt (wir bitten diesen, der Kindergarten-Religiosität entnommenen Ansatz an dieser Stelle zu entschuldugen, aber wir bekommen es auf anderen Wegen nicht in die Köpfe)!

Wir wollen uns zur Räson und zur Sachdienlichkeit rufen. Man fand heraus, dass wenn man mit Quatsch trainiert, Blödsinn herauskommt. Die finden Alles, heraus, diese Forscher, Alles!

Wenn wir uns durch den Kümmerer t3n klicken, dann bekommen wir – Internetz-Legastheniker, die wir nun einmal sind – auch noch frei Haus die Gewissheit geliefert, die uns bereits seit geraumer Zeit bezüglich des eigenen mentalen Zustandes beschleicht

Es [brainrot] beschreibt im Grunde den geistigen Verfall, den wir durch zu viel Internetkonsum erleben.

<https://t3n.de/news/brainrot-ki-chatbots-verdummen-nicht-erholen-1713296/>


318. golem, 24.10.2025

EA und Krafton öffnen die Studiotüren für KI

Electronic Arts arbeitet mit Stability AI an neuen Entwicklungstools – dabei sehen viele Spieler den Einsatz von KI in Games eher skeptisch.

Anmerkung: „Konsolen zu Spielbrettern!“

<https://www.golem.de/news/spielebranche-ea-und-krafton-oeffnen-die-studiotueren-fuer-ki-2510-201517.html>


317. decoder, 23.10.2025

Reddit verklagt Perplexity und Datensammler wegen Diebstahls

Reddit stellte der KI-Suchmaschine Perplexity eine Falle, um das Scrapen von Daten über die Google-Suche nachzuweisen.

<https://the-decoder.de/reddit-verklagt-perplexity-und-datensammler-wegen-diebstahls/>


316. decoder, 23.10.2025

OpenAI warnt vor Sicherheitsrisiken im neuen ChatGPT-Browser Atlas

OpenAIs neuer Browser ChatGPT Atlas birgt Sicherheitsrisiken, warnt OpenAI-Sicherheitschef Dane Stuckey.

Anmerkung: Vermutlich kriegen *wir* es mal wieder nicht so richtig gebacken: ein Hersteller warnt vor Sicherheitsrisiken bei seinem eigenem Produkt und schmeißt es trotzdem auf den Markt? – – – Äh, wie? Was? Freilandversuch? Ach so, ja dann…

<https://the-decoder.de/openai-warnt-vor-sicherheitsrisiken-im-neuen-chatgpt-browser-atlas/>


315. heise, 24.10.2025

KI-Müll in US-Urteilen aufgeflogen

KI-Müll in Gerichtseingaben ist eine Plage. Nun sind auch Entscheidungen zweier US-Gerichte aufgeflogen. Ein Praktikant sei schuld, sagt ein erwischter Richter.

<https://www.heise.de/news/KI-Muell-in-US-Urteilen-aufgeflogen-10840772.html>


314. heise, 22.10.2025

Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft

Im Rahmen einer Studie interpretierten ChatGPT & Co. in 45 Prozent der Fälle Nachrichteninhalte fehlerhaft – unabhängig von Sprache, Region oder Plattform.

Anmerkung: Irgendwas ist immer.

<https://www.heise.de/news/Europaeische-Rundfunkunion-KI-Systeme-geben-Nachrichteninhalte-oft-falsch-wider-10796779.html>


-313. golem, 22.10.2025

KI-BLASE : Warten auf die große Implosion

1999 platzte die Dotcom-Blase. Die Parallelen zum KI-Hype sind verblüffend.

Anmerkung: Ja, kein KI-Unfall. Aber wir wollen doch den Knall – oder sollten wir besser von Llank – verfolgen, oder?!?

<https://www.golem.de/news/ki-blase-warten-auf-die-grosse-implosion-2510-201383.html>


312. golem, 21.10.2025

OpenAI will mit „Projekt Mercury“ Juniorbanker überflüssig machen

Mehr als 100 ehemalige Investmentbanker trainieren laut Bloomberg OpenAIs KI darauf, Finanzmodelle zu bauen und Routinearbeit im Investmentbanking zu übernehmen. Das geheime Projekt „Mercury“ soll die lästige Schreibtischarbeit von Nachwuchsbankern abschaffen.

Anmerkung: Schaut, Investmentbanker machen jetzt schäbige Klick-Jobs (die kamen nicht nach Afrika, konnte dort niemand erledigen). Und sie befreien uns von „lästiger“ Arbeit, wer könnte da dagegen sein, wenn

die zeitaufwendige Basisarbeit junger Analysten

ersetzt wird (neben bei: so fängt man halt an, als Stift (Auszubildender)…). Und: was haben die Ehemaligen wohl dafür bekommen?

<https://the-decoder.de/openai-will-mit-projekt-mercury-juniorbanker-ueberfluessig-machen/>


311. heise, 19.10.2025

Wikipedia: Bot-Traffic tarnt sich zunehmend als menschlich

Die freie Web-Enzyklopädie verzeichnet immer mehr automatisierte Zugriffe und appelliert an Betreiber von LLMs, Suchmaschinen und sozialen Medien.

Anmerkung: Na, dann hoffen wir einmal, dass es nicht eine KI war, der wir diesen Zuwachs an Menschlichkeit zu verdanken haben…

<https://www.heise.de/news/Wikipedia-Bot-Traffic-tarnt-sich-zunehmend-als-menschlich-10778492.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (301 bis 310), KI-Unfall (321 bis 330]

jott


[Zitationshilfe] : „KI-Unfall (311 bis 320)“, unter jottBlog : <https://jottblog.langkau.name/2025/10/29/ki-unfall-311-bis-320/> : aufgerufen am 00.00.20xx.

#-#-#-#-#