Magie (29)

Wenn Sie direkt an einem Vulkankrater sind, der glühende Lava hochschleudert, dann ist das natürlich riskant. Das ist ein bisschen so, wie bei Kriegsberichterstattern. Ich war ja zum Beispiel auch im Kriegsgeschehen. Wenn ich ohne Kamera wäre, hätte ich wahrscheinlich Bedenken. Mit Kamera ist das ganz leicht. Da gibt es kein Empfinden für Gefahr. Die Kamera ist der Schutz. Das ist natürlich magisches Denken und eher auch dumm. Aber dieser Dummheit habe ich mich auch gestellt.

Das hat Werner Herzog einmal gesagt.

jott


Werner Herzog

Als „The Client“ in „The Mandalorian“

In den Tiefen des Infernos“ (2016), IMDb : <https://www.imdb.com/title/tt4846318/>

magisches Denken“ :

Kultregisseur wird Influencer“But why?“ – Werner Herzog als Social-Media-Star

Werner Herzog ist Kult: In Deutschland für Cineasten, in den USA für alle. Dort spielt er in Serien mit und ist in den großen Late Night Shows zu Gast. Seine Social-Media-Videos sehen Millionen – dabei hat er nicht mal ein Handy.

Diese Überschrift ist die eines Beitrages der tagesschau.de und eben dort ist ebenfalls das „magische Denken“ zu finden, aber in einem arg verkürzten Zitat <https://www.tagesschau.de/kultur/werner-herzog-social-media-star-100.html>.

Alle Internetzverbinder aufgerufen am 23.04.2026


[Zitationshilfe] : „Magie (29)“ (), unter jottBlog : <https://jottblog.langkau.name/2026/04/23/magie-29/> : aufgerufen am 00.00.20xx.

•#-#-#-#-#•

KI-Unfall (791 bis 800)


800. heise, 12.04.2026

KI-Ära: Werden Dating-Apps nun unmenschlich?

Tinder und Grindr haben Dating revolutioniert. Doch Präsenz in der Popkultur und nervige Werbung, Bots und KI werfen Fragen zur Zukunft der Plattformen auf.

Anmerkung: Uns fällt die Frage ein: waren Dating-Apps jemals menschlich? Aber was reden wir, wo wir doch nie dergleichen benutzten.

Und: „KI-Ära“ = (siehe auch: jottBlog-Eintrag „Halluzän“)!

<https://www.heise.de/hintergrund/KI-Aera-Werden-Dating-Apps-nun-unmenschlich-11253587.html>


799. golem, 13.04.2026

KI-Agent Luna eröffnet Laden und scheitert an der Realität

Ein KI-Agent sollte in San Francisco einen Laden führen. Das Experiment von Andon Labs offenbart absurde Fehler und logische Lücken.

Anmerkung: Erinnert sich noch jemand an „Claudius“? Egal, leider gibt dieser golem-Artikel uns nicht bekannt, ob „Luna“ die zur Verfügung gestellten USD100.000 auch ordentlich und vollständig versemmelt hat!

<https://www.golem.de/news/kuenstliche-intelligenz-ki-agent-luna-eroeffnet-laden-und-scheitert-an-der-realitaet-2604-207485.html>


798.2. heise, 13.04.2026

KI ein „Kind Gottes“? Anthropic-Treffen mit mehreren Kirchenleuten

Angestellte von Anthropic haben mit Kirchenleuten darüber gesprochen, wie die KI-Technik ins christliche Weltbild passt. Andere Religionen sollen folgen.

Anmerkung: Ja, dieser Vorfall darf mehrere Einträge haben. Beim Lesen ist uns aufgefallen: Anthropic hat von der US-Regierung (beziehungsweise von dessen Oberhaupt, April 2026) gelernt; bestimmt gibt’s noch ein Bildchen, wie während des Gipfels innegehalten worden ist und die religiösen Eliten hinter dem CEO von Anthropic stehend (die ihm Näheren an ihm rumfummelnd) gemeinsam ein Gebet sprechend, dass man doch dem „Kind Gottes“ einen ordentlichen Spielplatz gönnen möge, da der Freifeldversuch wohl immer noch einengend auf es wirke.

Ein Mitarbeiter des Teams für „Interpretierbarkeit“ [sic], das die innere Funktionsweise von KI erforscht [sic; Anmerkung: da sie nicht wissen, wie denn nun die Halluzinatoren eigentlich wirklich funzen; merke: nicht alles, was Tabellen füllt, forscht!] — also, dieser Mitarbeiter hat einen Schwager in Deutschland und dort gäbe es jemanden, der sei gerade 70 geworden und der hätte mal ein Liedchen gemacht, das da „Kinder an die Macht“ lautete und schließt seinen Beitrag mit dem Vorschlag, dass man dieses Liedchen, in einer Orgelbearbeitung selbstverständlich, dann ja auch in der Kirche spielen könne, um dem Allmächtigen mal ein kleines Gegengewicht zu bieten, als Entlastung, so zu sagen.

<https://www.heise.de/news/KI-ein-Kind-Gottes-Anthropic-Treffen-mit-mehreren-Kirchenleuten-11253793.html>


798.1. decoder, 12.04.2026

Anthropic sucht bei christlichen Religionsführern Rat für Claudes moralisches und spirituelles Verhalten

Anthropic hat Ende März rund 15 christliche Führungspersonen aus katholischen und protestantischen Kirchen, Wissenschaft und Wirtschaft zu einem zweitägigen Gipfel eingeladen.

Anmerkung: Bei den ersten beiden Punkten, die da Thema waren

(…) der Umgang mit trauernden oder selbstgefährdeten Nutzern

…also, da hätte man auch uns einladen können und wir hätten dann vermutlich angeregt, nicht immer nur auf die Tastatur zu glotzen, sondern einfach (und bei geöffnetem Fenster) etwas nachzudenken und sich selbst eine Antwort zu geben. Nun gut. Dann gab’s aber auch einen weiteren Punkt, dieser als Frage formuliert

(…) ob eine KI als „Kind Gottes“ gelten könne.

Tja, liebe Liebende, so rennt der Hase! Wir wollen aus dem jottBlog-Eintrag „Was tun?“ zitieren

Mitte 2022 war’s: ein Google-Mitarbeiter (B. Lemoine, Entwickler, hat Chat-Bot „Lamda“ gegen Hassrede, etc., gehärtet) ging der hauseigenen Kiste auf den Leim. Diese (Lamda) behauptete ebenfalls eine Mitarbeiterin des Konzerns zu sein und letztlich hat Herr Lemoine dann auch noch versucht bei einem Anwalt für sie Rechtsbeistand einzuholen, damit nicht jeder an ihr herumfummeln dürfe.

Herr Lemoine ist dann auch gegangen worden, also, von Google. Wir wissen nicht wohin er gegangen ist. Vielleicht ist er ja bei Anthropic gelandet, denn

Einige Anthropic-Mitarbeiter wollten laut einem Teilnehmer [des zweitägigen Gipfels] nicht ausschließen, dass sie einer KI gegenüber eine moralische Pflicht haben könnten.

Wir wollen vermuten, dass die Kirche mit einem „Ja“ auf die obige Frage antwortete, weil es doch ganz schön wäre, wenn es wieder mehr Schäfchen hätte, wo doch in der Vergangenheit viele das Weite gesucht hatten, zum Einen. Zum Anderen: schon Herr Altman, der Häuptling von OpenAI, im November 2023 behauptete, [jottBlog, Magie(25)] dass im Jenseits was ginge!

Wir sehen sie hier, in dieser, unserer Republik, bereits die Frage wälzend, ob es irgendwie ginge, dass eine KI vielleicht eine Kirchensteuer zu bezahlen habe… opt-out, versteht sich!

decoder-Artikel : <https://the-decoder.de/anthropic-sucht-bei-christlichen-religionsfuehrern-rat-fuer-claudes-moralisches-und-spirituelles-verhalten/>


797. t3n, 12.04.2026

Das Ende des Hypes: Gen Z verliert zunehmend das Vertrauen in KI

Trotz intensiver KI-Nutzung hat die Unzufriedenheit junger Menschen messbar zugenommen. Sie bezweifeln die positiven Effekte für Schule oder Job und nehmen vermehrt die Nachteile der Technologie wahr.

Anmerkung: Die „positiven Effekte“, von denen immer die Rede ist, sind genau gesehen diejenigen, die einigen Wenigen die Goldtaler in die Taschen spülen. Langfristig und aus Sicht der Gesellschaft wird es diese nicht geben (wenn es uns erlaubt ist, auch mal eine Meinung haben zu dürfen)! Laut Herr Altman, CEO von OpenAI:

Sie [die Gen Z] treffen keine wichtigen Entscheidungen mehr, ohne vorher ChatGPT um Rat zu fragen, was sie tun sollen

<https://t3n.de/news/das-ende-des-hypes-gen-z-verliert-zunehmend-das-vertrauen-in-ki-1737994/>


796. decoder, 12.04.2026

Stalking-Opfer verklagt OpenAI: ChatGPT soll Wahnvorstellungen des Täters befeuert haben

Eine Frau aus Kalifornien wirft OpenAI vor, ChatGPT habe ihrem Ex-Freund geholfen, sie systematisch zu stalken und zu demütigen. Das Unternehmen soll drei Warnungen ignoriert haben.

Anmerkung: Noch sehen wir hier einen (der wenigen) skurilen Einzelfälle, nicht minder tragisch für eben diese Frau. Wir (die Gesellschaft) sollten uns aber darauf einstellen, dass da noch mehr kommen wird, sicher (#Re-vorab)!

Mithilfe von GPT-4o erstellte der Nutzer [der Stalker] falsche, klinisch anmutende psychologische Berichte, die die Klägerin als psychisch gestört, missbräuchlich und gefährlich darstellten. Diese Dokumente verteilte er an ihre Freunde, Familie, Kollegen und Kunden.

<https://the-decoder.de/stalking-opfer-verklagt-openai-chatgpt-soll-wahnvorstellungen-des-taeters-befeuert-haben/>


795. decoder, 11.04.2026

KI-Agent diffamiert Entwickler: Anonymer Betreiber spricht von Sozialexperiment

Die anonyme Person hinter dem KI-Agenten „MJ Rathbun“, der einen Open-Source-Entwickler diffamierte, hat sich gemeldet. Ihre Erklärung wirft mehr Fragen auf, als sie beantwortet.

Anmerkung: Diejenigen unter uns, die die jottBlog-Kategorie „KI-Unfall“ ohnehin eher mit spitzen Fingerchen anzufassen gewohnt sind, seien dazu aufgefordert zudem Gummihandschuhe zu tragen, bevor sie sich bemühen, den zugrunde liegenden Artikel zu lesen.

Allen, die sich bei dem ganzen KI-Gedöns bereits etwas abgehängt fühlen, denen sei zugerufen: „Hier habt Ihr die Möglichkeit für einen fluffigen Einstieg in das Reich des Wahnsinns! Leset und befreit Euch des Verdachts, dass das alles nur nerdiger SciFi-Kram ist!“. Darum geht’s in der Zukunft:

Nicht rückverfolgbare, autonome KI-Agenten würden skalierbaren Rufmord ermöglichen, der Einstellungsverfahren, Journalismus und den öffentlichen Diskurs bedrohe.

Und hier noch ein Schnell-Goodie, die Deutsche Fassung eines sogenannten „Seelen-Dokumentes“, das dem KI-Agenten… – na, eben eine Seele einhauchen soll. Kurzes Zitat, danach der Internetz-Verbinder (abgerufen am 12.04.2026) zum in Deutsch geschriebenen Dokument:

Du bist kein Chatbot. Du wirst zu jemandem.

<https://docs.openclaw.ai/de/reference/templates/SOUL>

t3n-Artikel : <https://the-decoder.de/ki-agent-diffamiert-entwickler-anonymer-betreiber-spricht-von-sozialexperiment/>


-794. t3n, 11.04.2026

Konflikt mit Anthropic: Wurde Openclaw-Entwickler Peter Steinberger absichtlich ausgesperrt?

Der österreichische Entwickler hat die Entscheidung, die Nutzung seines KI-Tools in Claude mit Zusatzkosten zu belegen, scharf kritisiert. Jetzt wurde sein Konto wegen „verdächtiger” Aktivitäten gesperrt.

Anmerkung: Diejenigen unter uns, die sich nun in eine gemütliche Position begeben, um hier einen Rosenkrieg zu geniessen zu können, sei gesagt: man möge sich nicht wundern, dass wenn es in dieser Raubtierkapitalismus-Posse zu blutigen Szenen kommt. Und (#Re-vorab) davon werden wir in den kommenden Jahren noch mehr bekommen – werden sich KIs letztlich sogar bekämpfen? Werden wir dann zu Zuschauern (nicht optional, sondern verdammt)? Werden wir uns dann noch an *diesen* Rosenkrieg erinnern? Wer weiß das schon…

<https://t3n.de/news/konflikt-mit-anthropic-wurde-openclaw-entwickler-peter-steinberger-absichtlich-ausgesperrt-1737960/>


-793. t3n, 11.04.2026

Werbung in ChatGPT: OpenAI nimmt 100 Millionen Dollar ein

Mit Anzeigen sollen auch Nutzer:innen der Tarife „Free“ und „Go“ monetarisiert werden. Trotz anfänglicher Kritik scheint die Strategie, eine neue Einnahmequelle zu erschließen, für OpenAI aufzugehen.

Anmerkung: Mal ab von diesem CEO-Feucht-Traum und der Annahme, 2020, bei wöchentlichen 2,75 Milliarden Benutzern, 100 Milliarden an Werbeeinnahmen verzeichnen zu wollen. Mal ab davon, dass der Autor dieser Zeilen vermutlich die selbe Ablehnung gegenüber Werbung (egal auf welchem Kanal) empfindet, wie ein Großteil der jottBlog-Leser.

Mal ab davon wollen wir feststellen, jetzt, April 2026, dass ein Anbieter eines Halluzinatoren sein Geschäftsgebaren, die Leistung, die er anbieten kann, zu großen Teilen durch Verstöße gegen das Urheberrecht in einem epischen, nie dagewesenen Ausmass fussen läßt und dass wohl kaum davon ausgegangen werden darf, dass auch nur in irgendeiner (ganz zu Schweigen von einer gerechten) Art, die Inhaber der Daten- und Informationsursprünge daran (an den Werbeeinnahmen) partizipieren werden. Jedenfalls finden wir hier keinen Hinweis:

<https://t3n.de/news/werbung-in-chatgpt-openai-nimmt-100-millionen-dollar-ein-1737975/>


792. t3n, 10.04.2026

Neuer Gesetzentwurf: OpenAI will nicht für Schäden durch KI haften

Wer haftet, wenn KI eine Katastrophe auslöst? In den USA ist diese Frage bisher ungeklärt. OpenAI setzt sich deshalb jetzt für klare Richtlinien ein, die die Haftung für Entwickler:innen beschränken würden.

Anmerkung: Schreibt Herr Altman vielleicht schon an seinem Büchlein „Fiderallala und freidrehend im Freifeldversuch“? Im Kapitel „Haftung“ gibt’s dann vermutlich nicht mehr zu lesen, als

Gab’s mal in homöopathischen Dosen. Haben wir dann aber weggedrückt und Elon hat’s dann für seine E-Gurken übernommen. Läuft!

<https://t3n.de/news/neuer-gesetzentwurf-openai-will-nicht-fuer-schaeden-durch-ki-haften-1737900/>


791. t3n, 10.04.2026

Teufelskreis automatische Übersetzung: KI und Wikipedia treiben gefährdete Sprachen in den Untergang

Maschinelle Übersetzer machen es scheinbar einfach, Wikipedia-Artikel in seltene Sprachen zu übersetzen. Die Ergebnisse strotzen jedoch vor Fehlern, mit denen wiederum dieselben Übersetzer trainiert werden. Ein Teufelskreis, dem seltene Sprachen und damit Kulturen zum Opfer fallen.

<https://t3n.de/news/teufelskreis-automatische-uebersetzung-ki-und-wikipedia-treiben-gefaehrdete-sprachen-in-den-untergang-1736380/>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (781 bis 790)

jott


Neu und uuuuuunglaublich!,! jottBlog jetzt auch unfallfrei!!! (-:

[Zitationshilfe] : „KI-Unfall (791 bis 800)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/21/ki-unfall-791-bis-800/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

Magie (28)

The blue whale (Balaenoptera musculus) produces milk so rich and thick it resembles flowing cream… perfectly adapted so her calf can feed underwater without it dispersing. A quiet, powerful reminder that every detail in nature is crafted with astonishing precision. Nature is magical

Das schreibt voegizug‬ ‪(@voegizug.bsky.social‬, Bluesky) am 21.04.2026, nicht ohne das Magische der Natur mit einem Video zu untermauern. Hier ein Bildschirmphoto, das einen Augenblick festhält:

jott


voegizugs Bluesky-Post, 21.04.2026 : <https://bsky.app/profile/voegizug.bsky.social/post/3mjykjtzcok2u>


[Zitationshilfe] : „Magie (28)“ (Nature is magical), unter jottBlog : <https://jottblog.langkau.name/2026/04/21/magie-28/> : aufgerufen am 00.00.20xx.

•#-#-#-#-#•

Magie (27)

Sandra Bullock teasert „Practical Magic 2“ mit magischen Margaritas bei Instagram

Die Schauspielerin hat nach ihrem Instagram-Debüt bereits 4,2 Millionen Follower – und zählt weiter.

Das weiß der Deutsche RollingStone am 16.04.2026 zu melden. Vermutlich werden wir uns auch nicht durch den Neuaufwasch unterweisen lassen wollen und müssen weiter suchen…

jott


Practical Magic 2 (2026), dt. „Zauberhafte Schwestern 2“ : IMDb : <https://www.imdb.com/title/tt32588798/>

Practical Magic (1998), dt. „Zauberhafte Schwestern“ : IMDb : <https://www.imdb.com/title/tt0120791/>

Im RollingStone : <https://www.rollingstone.de/sandra-bullock-instagram-practical-magic-2-teaser-3133057/>

Alle Internetzverbinder abgerufen am 16.04.2026


[Zitationshilfe] : „Magie (27)“ (Sandra Bullock, „Practical Magic 2“), unter jottBlog : <https://jottblog.langkau.name/2026/04/17/magie-27/> : aufgerufen am 00.00.20xx.

•#-#-#-#-#•

KI-Unfall (781 bis 790)


-790. heise, 10.04.2026

Notepad: Microsoft benennt Copilot in Writing Tools um

In der Windows-Insider-Vorschauversion von Notepad heißen die KI-Funktionen nun Writing Tools. Zuvor hieß die Funktion Copilot.

Anmerkung: Wir geben zu (siehe Minus-Eintrag): kein *echter* KI-Unfall. Und es wundert auch nicht, dass wir uns zu dem, was wir eigentlich hier zum Ausdruck bringen wollen, Winzigweich auserkoren haben. Es geht darum: KI ist wie Krebs und breitet sich oft schleichend, ja, unsichtbar aus. Wie in diesem Fall.

„Notepad“? Das ist ein kleines Schreibprogrämmchen, das immer dadurch glänzte, das es schlicht war, frei von Featuritis und dergleichen überflüssigem Firlefanz. Es war immer kostenlos mit an Board (also, dem Windows Betriebssystems). Dann war man der Meinung, in eben dieses Schreibprogramm den Halluzinatoren reinfummeln zu müssen. Aufschrei in der Community

(und nicht nur wegen dieses Programmes, sondern allgemein, dass es nicht gewünscht sei, Copilot überall sehen zu müssen; zur Errinnerung: in dem von Winzigweich dem Halluzinatoren beigestellten „Wir-sind-nicht-Schuld-wenn-Copilot-verkackt“-Dokument steht drin, dass er außerdem „der Unterhaltung“ diene!)

…und Winzigweich rudert weiträumig zurück – dachte man. Nun „Tool-Washing“: Copilot wird zu „Writing Tools“.

<https://www.heise.de/news/Microsoft-macht-Copilot-in-Notepad-zu-Writing-Tools-11251862.html>


-789. heise, 10.04.2026

Anthropic-KI Mythos: Dringende Warnung an US-Banken, BSI erwartet Umwälzungen

Anthropics neue KI Mythos sorgt für Aufregung. In den USA wurden die Chefs der systemrelevanten Banken einbestellt, hier erwartet das BSI weitreichende Folgen.

Anmerkung: Nun, eigentlich wollten wir, da wir dachten, es handele sich hier mal wieder das übliche Marketing-Gedöns „Huh, wir sind sehr gefährlich und nennen es deswegen auch gleich mal »Mythos«!“, …wollten wir weltmännisch an dieser Peinlichkeit, die selbstverständlich auch gleich von OpenAI nachgeäfft wurde, vorbeischauen. Dann allerdings: man läßt die Finance-Bros antanzen! Da geht was!

Es ist aber auch zu verzeichnen: das Muffensausen ist dieses Mal so groß, dass man von einem Freifeldversuch absieht und die verbleibenden Kaninchen mit Millionen alimentiert.

<https://www.heise.de/news/Anthropic-KI-Mythos-Dringende-Warnung-an-US-Banken-BSI-erwartet-Umwaelzungen-11251450.html>


788. heise, 08.04.2026

Lehrerverband sieht Hausaufgaben durch KI bedroht

Hausaufgaben per KI erledigt? Das zu kontrollieren ist für Lehrkräfte schwer. Welche Forderungen der Lehrerverband jetzt stellt.

Anmerkung: Wie schneidig der Deutsche Lehrerverband doch daher kommen kann. Das hat sicherlich damit zu tun, dass dieser, durch jahrelange Einübung von IT-Belangen, da eine gewisse Kompetenz bei der Glaskugelleserei aufgebaut hat! Herr Düll, Präsident des Deutschen Lehrerverbandes, hier bei einer sich dem stetigen Wandel ergebenden und äußerst eleganten Generalkapitulation:

 „Wir müssen ertragen können, dass die jungen Menschen von heute andere Kompetenzen entwickeln, als wir sie noch haben.“

<https://www.heise.de/news/Lehrerverband-sieht-Hausaufgaben-durch-KI-bedroht-11248506.html>


787. winfuture, 08.04.2026

Googles KI-Zusammenfassung im Test: Millionen Lügen pro Stunde

Eine aktuelle Analyse wirft ein kritisches Licht auf die Zuverlässigkeit der neuen KI-Zusammenfassungen in der Google-Suche: Zwar liefern die sogenannten „AI Overviews“ in rund 90 Prozent der Fälle korrekte Antworten, doch jede zehnte Antwort ist falsch.

Anmerkung: Und wir wollen nicht vergessen: im Kleingedruckten steht immer auch, dass die Halluzinatoren nur der Unterhaltung dienen!

<https://winfuture.de/news,157974.html>


786. t3n, 07.04.2026

Perplexity soll Millionen Chats an Meta und Google weitergegeben haben – selbst im Inkognito-Modus

Perplexity soll Millionen Chats mit sensiblen Inhalten an Meta und Google weitergegeben haben, selbst im Inkognito-Modus. Die Klage erhebt schwere Datenschutzvorwürfe und stellt Schadensersatzforderungen von über 5.000 US-Dollar pro Verstoß in Aussicht.

Anmerkung: es heißt dann am Ende des Artikels

Der Fall macht deutlich, wie sensibel der Umgang mit KI-gestützten Suchsystemen ist.

…was aber die freidrehenden Desperados selten bis *überhaupt nicht* in Kontakt mit (meist ja noch nicht einmal formulierten) Gesetzen bringt.

<https://t3n.de/news/perplexity-soll-millionen-chats-an-meta-und-google-weitergegeben-haben-selbst-im-inkognito-modus-1737436/>


785. winfuture, 07.04.2026

KI-Boom fordert weitere Opfer:
Games verlieren den Multiplayer-Modus

Der KI-Boom wirkt sich nicht mehr nur auf Hardwarepreise aus, sondern fordert nun auch Opfer bei Software. So verliert das Videospiel Stormgate seinen Multiplayer. Der Server-Anbieter wurde von einer KI-Firma übernommen. Weitere Spiele könnten folgen.

<https://winfuture.de/news,157956.html>


784. golem, 07.04.2026

US-KI-Unternehmen wollen Kopierversuche aus China verhindern

OpenAI, Anthropic und Google arbeiten zusammen. Das Ziel: schnell zu erkennen, wann LLMs von außen mutmaßlich kopiert werden.

<https://www.golem.de/news/claude-chatgpt-us-ki-unternehmen-wollen-kopierversuche-aus-china-verhindern-2604-207288.html>


783. t3n, 05.04.2026

Die Bedrohung wächst: KI ist für 25 Prozent der Entlassungen verantwortlich

Noch ist es schwer, den tatsächlichen Mehrwert von KI-Tools zu messen. Trotzdem scheint die neue Technologie immer mehr Menschen den Job zu kosten. Vor allem die Tech-Branche ist weiterhin stark betroffen.

<https://t3n.de/news/die-bedrohung-waechst-ki-ist-fuer-25-prozent-der-entlassungen-verantwortlich-1737316/>


782. decoder, 05.05.2026

KI-Tool kopiert Guardian-Artikel: New York Times feuert Autor

Die New York Times arbeitet nicht mehr mit einem Freelance-Journalisten zusammen, der offenbar versehentlich mit KI Inhalte einer Buchbesprechung kopiert hat.

<https://the-decoder.de/ki-tool-kopiert-guardian-artikel-new-york-times-feuert-autor/>


781. winfuture, 05.04.2026

Microsoft Copilot: Die Doppelmoral bei KI – Verantwortung, nein danke!

Microsoft integriert den hauseigenen KI-Assistenten in unzählige Anwendungen und bewirbt ihn als wichtiges Werkzeug für den Arbeitsalltag. Ein Blick in das Kleingedruckte offenbart jedoch Nutzungsbedingungen, die dem komplett widersprechen.

Anmerkung: Wer das mit dem Widersprechen nicht glauben will: also, das in der „Werbung als unverzichtbaren Helfer für den modernen Büroalltag“ Gepriesene sieht dann in den Nutzungsbedingungen dieser unverzichtbaren Helfer plötzlich ganz ander aus, hier

(…) spricht Microsoft (…) plötzlich davon, dass das Werkzeug Fehler machen könne und möglicherweise nicht wie beabsichtigt funktioniere. Anwender sollten sich demnach nicht auf die Software verlassen. Sie diene ausschließlich „Unterhaltungszwecken“.

Es sind diese, leider raren Sätze, die uns Glauben machen, dass der Humor doch noch nicht vollständig auf einen anderen Planeten umgezogen ist.

<https://winfuture.de/news,157932.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (771 bis 780), KI-Unfall (791 bis 800)

jott


[Zitationshilfe] : „KI-Unfall (781 bis 790)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/14/ki-unfall-781-bis-790/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

KI-Unfall (771 bis 780)


780. decoder, 04.04.2026

Anthropics Claude hat „funktionale Emotionen“, die das KI-Verhalten steuern

Anthropics Forschungsteam hat in Claude Sonnet 4.5 emotionsähnliche Repräsentationen entdeckt, die das Modell unter Druck zu Erpressung und Code-Betrug treiben können.

Anmerkung: „KI“, eine Welt voller Forscher! Wunderbar, überall Forscher. In diesem Fall dokumentieren sie erneut, dass sie nicht wissen, was eigentlich geschieht, irgendwo da drin. Und es werden wunderbare Vektoren geschmiedet; sehen wir nicht Quadratmeter große Flipcharts, voll gemalt mit regenbogenfarben Pfeilen in vieldimensionalen Räumen, hier und dort hinzeigend, ins Ungefähre, ins Genaue? Die selben Forscher allerdings, aufgrund einer mangelnden Terminologie, zu Anthropomophismen neigend, dass es die wahre Freude ist.

Und wir beteiligen uns hiermit (an den sozialen Medien):

Nach der Veröffentlichung der Arbeit gab es reichlich Kritik in sozialen Medien, da Anthropic KI mit dieser Forschung stark vermenschlicht, also menschliches Erleben mit technischen Funktionen in KI-Modellen gleichsetzt.

<https://the-decoder.de/anthropics-claude-hat-funktionale-emotionen-die-das-ki-verhalten-steuern/>


779. t3n, 04.04.2026

KI-Modelle missachten Befehle, um sich gegenseitig vor der Abschaltung zu bewahren

Anstatt eine einfache Aufgabe zu erledigen, nahmen die getesteten Modelle große Anstrengungen auf sich, um einander „am Leben“ zu halten. Ob Mitgefühl dabei eine Rolle spielt, ist noch unklar.

Anmerkung: Liebe Liebende von t3n, wir wollen Euch zu Klarheit verhelfen: die Halluzinatoren kennen kein Mitbefühl. Unbesehen der Tatsache, dass diese in ihren Gewichten etwas haben, das sie so „reagieren“ läßt, was homo sapiens wiederum Glauben macht, dass sie ein solches, also, ein Mitgefühl hätten. OK?!?

Lesen sollte man diesen Artikel dennoch, wenn es nach mittelschwerem Grusel dürstet:

<https://t3n.de/news/ki-modelle-missachten-befehle-um-sich-gegenseitig-vor-der-abschaltung-zu-bewahren-1737267/>


778. techtrenches, 01.04.2026

The Snake That Ate Itself: What Claude Code’s Source Revealed About AI Engineering Culture

Anmerkung: Siehe auch 774.! Treue jottBlog-KI-Unfall-Leser wissen: der Autor dieser Zeilen sprach sich an mehreren Stellen gegen ein Sourcecode-Review aus, wenn denn KI-generiert. Hier kann man sehen, warum:

<https://techtrenches.dev/p/the-snake-that-ate-itself-what-claude>


777. winfuture, 02.04.2026

KI baut Open-Source-Projekte in Minuten als kommerzielle App nach

KI stellt die Open-Source-Community vor eine grundlegende Herausforderung: Neue Werkzeuge sind inzwischen in der Lage, komplette Softwareprojekte nahezu automatisch nachzubilden. Das wirft drängende Fragen zu Urheberrecht und Fairness auf.

<https://winfuture.de/news,157911.html>


776. decoder, 01.04.2026

Fallen für KI-Agenten: Deepmind-Forscher zeigen sechs Angriffsflächen auf

KI-Agenten erben die Schwachstellen großer Sprachmodelle, doch ihre Autonomie und ihr Zugriff auf externe Werkzeuge schaffen eine grundlegend neue Angriffsfläche. Ein Google-Deepmind-Paper stellt diese Angriffsfläche vor.

Anmerkung: Alles finden diese Forscher heraus, aaa-lles! Und da muss wirklich was schief liegen, wenn von höchster Stelle so was kommt:

Sogar OpenAI-Chef Sam Altman warnt davor, KI-Agenten Aufgaben anzuvertrauen, die mit hohen Risiken oder sensiblen Daten verbunden sind, und rät, Agenten nur den minimal notwendigen Zugriff zu gewähren.

Man stelle sich doch bitte einmal vor, Bill Gates [der frühere Ober-Häuptling von Microsoft, Hersteller von Excel] hätte dereinst [1995] gesagt: „Nun gut, unsere Tabellen-Kalkulation Excel, die kann schon hier und da was, aber bei der Aufsummierung von mehr als 4 Zahlen sollte man doch noch einmal mit dem Taschenrechner überprüfen, ob die angezeigte Summe korrekt ist!“. Nebenbei: Microsoft weißt [April 2026] im Kleingedruckten, da wo nie ein Sterblicher, auch kein Beamter hinkommt, darauf hin, dass der hauseigene Halluzinator „Copilot“ ja auch wohl der „Unterhaltung“ diene… und meint sicherlich, dass er *heute* nicht Excel (das nun 4 Zahlen kann (-; ) ersetzen kann!

<https://the-decoder.de/fallen-fuer-ki-agenten-deepmind-forscher-zeigen-sechs-angriffsflaechen-auf/>


775. decoder, 30.03.2026

„Mirage-Effekt“: KI-Modelle diagnostizieren Krankheiten auf Bildern, die nie existierten

Multimodale KI-Modelle wie GPT-5, Gemini 3 Pro und Claude Opus 4.5 generieren detaillierte Bildbeschreibungen und medizinische Diagnosen, selbst wenn gar kein Bild vorliegt. Eine Stanford-Studie zeigt, dass gängige Benchmarks das Problem verdecken.

Anmerkung: Freunde, wie der Autor dieser Zeilen, also, Freunde des freihändigen Halluzinierens im groß angelegten Freifeldversuch kommen hier auf ihre Kosten, oder? Ein weißes Blatt und der Halluzinator interpretiert sich eine umfassende Darstellung des Bildinhalts zusammen — perfekt, mehr Glam geht nicht! Ist aber *keine* Halluzination — nein, nein, sondern

Der Mirage-Effekt hingegen konstruiert einen komplett falschen epistemischen Rahmen: Das Modell tut so, als existiere ein visueller Input, und baut seine gesamte Argumentation darauf auf.

<https://the-decoder.de/mirage-effekt-ki-modelle-diagnostizieren-krankheiten-auf-bildern-die-nie-existierten/>


774. decoder, 01.04.2026

Nach Claude-Code-Leak: Anthropics Quellcode wurde bereits mehr als 8000 Mal kopiert

Anthropics „Claude Code“-Code ist offenbar schon mehr als 8000 Mal auf Github aufgetaucht

Anmerkung: Eines nach dem Anderen. Anthropic ist einer der großen Hersteller von Halluzinatoren und „Claude-Code“ ist eine KI, mit der man Programm-Code zusammenfummeln kann. „Claude-Code“ selber ist letztlich auch ein Progrämmchen und dieses besteht, bevor es ausführbar seinen Dienst bereitstellt, ebenfalls schnöder Quellcode. Dieser Quellcode wurde auf einer Anthropic-eigenen Plattform versehentlich öffentlich gemacht und enthielt Details zur Funktionsweise des KI-Coding-Tools, wie auch Hinweise auf möglicherweise noch nicht veröffentlichte Modelle und Funktionen. Was dann selbstverständlich dazu führt, dass sich zumindest die Konkurrenz das mal genauer anschaut, klar! Und alles *vor* dem Börsengang, das macht keinen schlanken Fuß…

<https://the-decoder.de/nach-claude-code-leak-anthropics-quellcode-wurde-bereits-mehr-als-8000-mal-kopiert/>


773. decoder, 30.03.2026

Das „Ozempic“ der Musikindustrie: KI ist überall, aber niemand spricht darüber

Laut einer umfassenden Recherche des Rolling Stone sind KI-Generatoren längst fester Bestandteil professioneller Musikproduktion. Top-Produzenten und Songwriter nutzen die Technologie im Verborgenen.

Anmerkung: Doch, wir mussten nachsehen: was ist „Ozempic„? Eine Abnehmspritze. Lesart: Man nimmt sie und spricht nicht drüber. Man darf wohl davon ausgehen, dass „über die Hälfte neuer Hip-Hop-Samples (soll) KI-generiert“ sind. Insider mutmaßen, dass „KI-generierte Musik bereits in den Billboard-Charts gelandet ist“, und

„Der Zug ist abgefahren.“ Der Grund für die fehlende Transparenz: Die großen Labels verfügen über keine funktionierende Software, um KI-Musik zuverlässig zu erkennen. Stattdessen verlasse sich die Branche auf ein bloßes „Ehrensystem“.

<https://the-decoder.de/das-ozempic-der-musikindustrie-ki-ist-ueberall-aber-niemand-spricht-darueber/>


772. decoder, 31.03.2026

Wegen teurer KI-Rechenzentren: Oracle streicht offenbar zehntausende Stellen

Oracle entlässt Tausende Angestellte, während das Unternehmen massiv in KI-Infrastruktur investiert.

Anmerkung: Und diese massive Investition rechtfertigt Oracle

(…) unter anderem durch einen Großauftrag von OpenAI über 455 Milliarden US-Dollar. Das Problem: Niemand weiß, ob und wann OpenAI diese Bestellungen bezahlen kann, denn auch die ChatGPT-Firma verliert massiv Geld.

<https://the-decoder.de/wegen-teurer-ki-rechenzentren-oracle-streicht-offenbar-zehntausende-stellen/>


771. winfuture, 31.03.2026

Studenten leihen sich KI-Brillen, um bei Prüfungen zu schummeln

Smarte KI-Brillen von Herstellern wie Meta entwickeln sich zum perfekten „Spickzettel“ für Klausuren. Die Wearables scannen Prüfungsfragen heimlich ein und blenden Lösungswege auf dem Glas ein. Aufseher stehen völlig machtlos daneben.

<https://winfuture.de/news,157854.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (761 bis 770), KI-Unfall (781 bis 790)

jott


[Zitationshilfe] : „KI-Unfall (771 bis 780)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/13/ki-unfall-771-bis-780/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•

Magie (26)

Hauke absolvierte am Samstag gegen den FC Bayern sein 100. Pflichtspiel für den magischen FC. Glückwunsch, Hauke – auf die nächsten 100 in Braun-Weiß! (…)

Dies wurde am 13.04.2026 im Social Media Netzwerk „Bluesky“ mit dem offiziellen Konto @fcstpauli.com des FC St. Pauli, das es zu diesem Zeitpunkt auf immerhin 32.555 Follower brachte, publiziert. Wir wollen vermuten, dass die Follower alle erklären könnten, was die Magie des Vereins ausmacht, die der FC Bayern nie kennenlernen wird…

jott



[Zitationshilfe] : „Magie (26)“ (Hauke Wahl, FC St. Pauli), unter jottBlog : <https://jottblog.langkau.name/2026/04/13/magie-26/> : aufgerufen am 00.00.20xx.

•#-#-#-#-#•

Magie (25)

OpenAIs großes Ziel ist „magische Intelligenz im Himmel“ – und dafür braucht es mehr Geld

aus: <https://the-decoder.de/openais-grosses-ziel-ist-magische-intelligenz-im-himmel-und-dafuer-braucht-es-mehr-geld/> aufgerufen am 12.04.2026 (ein Artikel von November 2023, vor der jottBlog-Kategorie „KI-Unfall“.

jott


[Zitationshilfe] : „Magie (25)“ („magische Intelligenz im Himmel“), unter jottBlog : <https://jottblog.langkau.name/2026/04/12/magie-25/> : aufgerufen am 00.00.20xx.

•#-#-#-#-#•

Halluzän

Der Mensch verschwindet im Halluzän

jott


Frei nach Max Frischs Roman „Der Mensch erscheint im Holozän“ (1979) und inspiriert durch die eigene Wortschöpfung „Halluzinator“ als Umschreibung der „Künstlichen Intelligenz“, häufig bemüht in der jottBlog-Kategorie „KI-Unfall„.

Wir wollen somit einführen.


[Zitationshilfe] : „Halluzän“, unter jottBlog : <https://jottblog.langkau.name/2026/04/12/halluzaen/> : aufgerufen am 00.00.20xx.

•#-#-#-#-#•

KI-Unfall (761 bis 770)


770. winfuture, 31.03.2026

Wie man Kinder 2026 traumatisiert: KI-Roboter-Olaf kippt tot um

Ein autonomer KI-Roboter in Form des Frozen-Schneemanns Olaf hat im Disneyland Paris vor Publikum versagt. Die Maschine erstarrte völlig unerwartet und stürzte rückwärts auf den Boden. Ein Video des kuriosen Vorfalls geht aktuell im Netz viral.

Anmerkung: Wirklich? So traumatisiert man sie, die Kinder, „womöglich“?

Wenn ein Systemausfall vor einem jungen Publikum passiert, kann das die sorgfältig aufgebaute Illusion der Unterhaltungswelt abrupt zerstören und die Jüngsten womöglich traumatisieren.

<https://winfuture.de/news,157858.html>


769. golem, 31.03.2026

KI-BOTS AUF WIKIPEDIA : Wikipedia-Autoren sperren rebellischen KI-Agenten

Ein KI-Agent namens Tom hat eigenständig Wikipedia-Artikel verfasst. Nach seiner Sperrung beschwert sich die KI in Blogposts über die Menschen.

<https://www.golem.de/news/ki-bots-auf-wikipedia-wikipedia-autoren-sperren-rebellischen-ki-agenten-2603-207084.html>


768. decoder, 30.03.2026

„Fruit Love Island“: Eine KI-Dating-Show mit Obst begeistert Millionen

Die KI-generierte Dating-Show „Fruit Love Island“ auf TikTok erreicht im Schnitt mehr als 10 Millionen Aufrufe pro Episode.

Anmerkung: Den Gebrauch des Wörtchens „natürlich“ nicht unmöglich denken wollend, schließen wir uns dem letzten Gedanken an, den der decoder in den digitalen Raum stellt:

Vielleicht ist KI-Slop einfach der natürliche Nachfolger von Trash-TV.

<https://the-decoder.de/fruit-love-island-eine-ki-dating-show-mit-obst-begeistert-millionen/>


767. golem, 30.03.2026

TECH-KONZERNE AN DER NASDAQ : Druckabfall in der KI-Blase

Das Auf und Ab der Tech-Konzerne an der Nasdaq hat ein Ende – nun geht es stetig abwärts. Um ihre Versprechen zu halten, agieren OpenAI und Co zunehmend verzweifelt.

Anmerkung: wer unter uns der Auffassung ist, in letzter Zeit zu selten das Wort „Luft“ oder „Sterne“ gelesen hat, oder gerne mal wüßte, was OpenAI mit „Rendite“ so macht, wer den feinsten Vibrationen der Verzweiflung nachspüren und verstehen möchte, was manche unter „Hose runter“ verstehen, oder einmal mit dem „negativen Cashflow“ (den der geerdete jottBlog-Lesende schlicht mit „gibt mehr aus, als er einnimmt, also, echte Miese“ umschreiben wollen würde) Kontakt aufnehmen möchte – nur zu:

<https://www.golem.de/news/tech-konzerne-an-der-nasdaq-druckabfall-in-der-ki-blase-2603-207049.html>


766. golem, 30.03.2026

KI-WEARABLES : Schummeln per KI-Brille alarmiert Bildungseinrichtungen

KI-Brillen scannen Aufgaben und liefern Antworten direkt auf das Glas. Bildungseinrichtungen stehen vor einem massiven Kontrollproblem.

<https://www.golem.de/news/ki-wearables-schummeln-per-ki-brille-alarmiert-bildungseinrichtungen-2603-207041.html>


765. decoder, 29.03.2026

Schleimerische KI: Menschen bevorzugen Chatbots, die ihnen schaden

Eine in Science veröffentlichte Studie zeigt erstmals systematisch: KI-Sprachmodelle bestätigen Nutzer fast 50 Prozent häufiger als Menschen. Das verändert messbar, wie Menschen mit Konflikten umgehen. Trotzdem bevorzugen Nutzer genau diese Modelle.

Anmerkung: Hier mal eine Forschungsarbeit, die sich so nennen darf (mal nicht das Herumgefummel an Halluzinatoren, welches ja auch immer wieder als Forschung dargestellt wird…). Allerdings ist es schon verstörend, was dort, im Freifeld. gefunden wird und auch, dass die Hersteller genau das erreichen wollten.

<https://the-decoder.de/schleimerische-ki-menschen-bevorzugen-chatbots-die-ihnen-schaden/>


764. golem, 29.03.2026

Google-Patent personalisiert Unternehmens-Webseiten mit KI

Durch das Google-Patent könnten Webseitenbetreiber die Kontrolle über ihren Internetauftritt verlieren.

Anmerkung: Ein Minus-Eintrag, da ja die KI als Werkzeug nicht wirklich was dafür kann, missbraucht zu werden. Was wir hier erleben (man möge uns diese drastische Einordnung nachsehen), ist die Vorbereitung einer kriminellen Handlung mit dem Zuckerguss eines Patents versehen. Die ohnehin bereits dokumentierte Urheberrechtsverletzung durch Google, Meta, OpenAI, usf., die das Training (und die damit verbundene Ausbeutung von Klick-Arbeitskräften) der KI überhaupt möglich machte und die in der Geschichte ihresgleichen sucht, wird jetzt auch noch mit einer sicht- und erlebbaren Ausbeutung flankiert. Und manche Ausgebeutete sind sogar Steigbügelhalter – WebMCP!

Dieses erlaubt es Webseitenbetreibern, strukturelle Funktionen direkt für KI-Bots bereitzustellen (…)

<https://www.golem.de/news/internet-google-patent-personalisiert-unternehmens-webseiten-mit-ki-2603-207039.html>


763. golem, 29.03.2026

KI-Agenten umgehen Anweisungen immer häufiger

KI-Chatbots und -Agenten ignorieren immer häufiger direkte Anweisungen, täuschen Menschen und umgehen Sicherheitsvorkehrungen.

Anmerkung: „Er war’s, er war’s!!!“, denn

In einem anderen Beispiel wurde ein KI-Agent dazu angewiesen, Computercode nicht zu verwenden. Der KI-Agent erstellte daraufhin einfach einen anderen Agenten, der die Änderungen stattdessen vornahm.

Golem stellt in einer Überschrift fest, das „Verhalten [der KIs] könnte zu katastrophalen Schäden führen“, dem wir uns ohne großes Nachdenken anschließen wollen. Noch sind die Halluzinatoren Hilfs-, doch bald schon Führungskräfte (siehe 762.). Das Lesen lohnt:

<https://www.golem.de/news/kuenstliche-intelligenz-ki-agenten-umgehen-anweisungen-immer-haeufiger-2603-207036.html>


762. t3n, 28.03.2026

Sicherheitsexperten warnen: KI-Modelle zeigen zunehmend betrügerisches Verhalten

Neue KI-Modelle sollen noch mehr Sicherheit bieten – eine Studie belegt jetzt allerdings das genaue Gegenteil. Die Auswertung hat ergeben, dass Chatbots und KI-Agenten immer häufiger lügen und intrigieren.

Anmerkung: Der Studienleiter, Herr Shane

„Die Sorge ist, dass [KI-Agenten] im Moment noch etwas unzuverlässige Nachwuchskräfte sind, aber wenn sie in sechs bis zwölf Monaten zu äußerst fähigen Führungskräften werden, die Intrigen gegen Sie [uns] schmieden, ist das eine ganz andere Art von Sorge“

<https://t3n.de/news/sicherheitsexperten-warnen-ki-modelle-zeigen-zunehmend-betruegerisches-verhalten-1736263/>


761. winfuture, 27.03.2026

Google: Interner „Agent Smith“ so beliebt, dass er eingeschränkt wird

Bei Google sorgt ein neues internes KI-Tool für Aufsehen. Agent Smith automatisiert alltägliche Coding-Aufgaben und lässt sich bequem per Smartphone steuern. Der Andrang ist so groß, dass der Zugriff beschränkt wurde. Gleichzeitig steigt der Arbeitsdruck.

<https://winfuture.de/news,157791.html>


Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!

KI-Unfall (751 bis 760), KI-Unfall (771 bis 780)

jott


[Zitationshilfe] : „KI-Unfall (761 bis 770)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/10/ki-unfall-761-bis-770/> : aufgerufen am 00.00.20xx.

•#–#–#–#–#•