780. decoder, 04.04.2026
Anthropics Claude hat „funktionale Emotionen“, die das KI-Verhalten steuern
Anthropics Forschungsteam hat in Claude Sonnet 4.5 emotionsähnliche Repräsentationen entdeckt, die das Modell unter Druck zu Erpressung und Code-Betrug treiben können.
Anmerkung: „KI“, eine Welt voller Forscher! Wunderbar, überall Forscher. In diesem Fall dokumentieren sie erneut, dass sie nicht wissen, was eigentlich geschieht, irgendwo da drin. Und es werden wunderbare Vektoren geschmiedet; sehen wir nicht Quadratmeter große Flipcharts, voll gemalt mit regenbogenfarben Pfeilen in vieldimensionalen Räumen, hier und dort hinzeigend, ins Ungefähre, ins Genaue? Die selben Forscher allerdings, aufgrund einer mangelnden Terminologie, zu Anthropomophismen neigend, dass es die wahre Freude ist.
Und wir beteiligen uns hiermit (an den sozialen Medien):
Nach der Veröffentlichung der Arbeit gab es reichlich Kritik in sozialen Medien, da Anthropic KI mit dieser Forschung stark vermenschlicht, also menschliches Erleben mit technischen Funktionen in KI-Modellen gleichsetzt.
<https://the-decoder.de/anthropics-claude-hat-funktionale-emotionen-die-das-ki-verhalten-steuern/>
779. t3n, 04.04.2026
KI-Modelle missachten Befehle, um sich gegenseitig vor der Abschaltung zu bewahren
Anstatt eine einfache Aufgabe zu erledigen, nahmen die getesteten Modelle große Anstrengungen auf sich, um einander „am Leben“ zu halten. Ob Mitgefühl dabei eine Rolle spielt, ist noch unklar.
Anmerkung: Liebe Liebende von t3n, wir wollen Euch zu Klarheit verhelfen: die Halluzinatoren kennen kein Mitbefühl. Unbesehen der Tatsache, dass diese in ihren Gewichten etwas haben, das sie so „reagieren“ läßt, was homo sapiens wiederum Glauben macht, dass sie ein solches, also, ein Mitgefühl hätten. OK?!?
Lesen sollte man diesen Artikel dennoch, wenn es nach mittelschwerem Grusel dürstet:
778. techtrenches, 01.04.2026
The Snake That Ate Itself: What Claude Code’s Source Revealed About AI Engineering Culture
Anmerkung: Siehe auch 774.! Treue jottBlog-KI-Unfall-Leser wissen: der Autor dieser Zeilen sprach sich an mehreren Stellen gegen ein Sourcecode-Review aus, wenn denn KI-generiert. Hier kann man sehen, warum:
<https://techtrenches.dev/p/the-snake-that-ate-itself-what-claude>
777. winfuture, 02.04.2026
KI baut Open-Source-Projekte in Minuten als kommerzielle App nach
KI stellt die Open-Source-Community vor eine grundlegende Herausforderung: Neue Werkzeuge sind inzwischen in der Lage, komplette Softwareprojekte nahezu automatisch nachzubilden. Das wirft drängende Fragen zu Urheberrecht und Fairness auf.
<https://winfuture.de/news,157911.html>
776. decoder, 01.04.2026
Fallen für KI-Agenten: Deepmind-Forscher zeigen sechs Angriffsflächen auf
KI-Agenten erben die Schwachstellen großer Sprachmodelle, doch ihre Autonomie und ihr Zugriff auf externe Werkzeuge schaffen eine grundlegend neue Angriffsfläche. Ein Google-Deepmind-Paper stellt diese Angriffsfläche vor.
Anmerkung: Alles finden diese Forscher heraus, aaa-lles! Und da muss wirklich was schief liegen, wenn von höchster Stelle so was kommt:
Sogar OpenAI-Chef Sam Altman warnt davor, KI-Agenten Aufgaben anzuvertrauen, die mit hohen Risiken oder sensiblen Daten verbunden sind, und rät, Agenten nur den minimal notwendigen Zugriff zu gewähren.
Man stelle sich doch bitte einmal vor, Bill Gates [der frühere Ober-Häuptling von Microsoft, Hersteller von Excel] hätte dereinst [1995] gesagt: „Nun gut, unsere Tabellen-Kalkulation Excel, die kann schon hier und da was, aber bei der Aufsummierung von mehr als 4 Zahlen sollte man doch noch einmal mit dem Taschenrechner überprüfen, ob die angezeigte Summe korrekt ist!“. Nebenbei: Microsoft weißt [April 2026] im Kleingedruckten, da wo nie ein Sterblicher, auch kein Beamter hinkommt, darauf hin, dass der hauseigene Halluzinator „Copilot“ ja auch wohl der „Unterhaltung“ diene… und meint sicherlich, dass er *heute* nicht Excel (das nun 4 Zahlen kann (-; ) ersetzen kann!
<https://the-decoder.de/fallen-fuer-ki-agenten-deepmind-forscher-zeigen-sechs-angriffsflaechen-auf/>
775. decoder, 30.03.2026
„Mirage-Effekt“: KI-Modelle diagnostizieren Krankheiten auf Bildern, die nie existierten
Multimodale KI-Modelle wie GPT-5, Gemini 3 Pro und Claude Opus 4.5 generieren detaillierte Bildbeschreibungen und medizinische Diagnosen, selbst wenn gar kein Bild vorliegt. Eine Stanford-Studie zeigt, dass gängige Benchmarks das Problem verdecken.
Anmerkung: Freunde, wie der Autor dieser Zeilen, also, Freunde des freihändigen Halluzinierens im groß angelegten Freifeldversuch kommen hier auf ihre Kosten, oder? Ein weißes Blatt und der Halluzinator interpretiert sich eine umfassende Darstellung des Bildinhalts zusammen — perfekt, mehr Glam geht nicht! Ist aber *keine* Halluzination — nein, nein, sondern
Der Mirage-Effekt hingegen konstruiert einen komplett falschen epistemischen Rahmen: Das Modell tut so, als existiere ein visueller Input, und baut seine gesamte Argumentation darauf auf.
774. decoder, 01.04.2026
Nach Claude-Code-Leak: Anthropics Quellcode wurde bereits mehr als 8000 Mal kopiert
Anthropics „Claude Code“-Code ist offenbar schon mehr als 8000 Mal auf Github aufgetaucht
Anmerkung: Eines nach dem Anderen. Anthropic ist einer der großen Hersteller von Halluzinatoren und „Claude-Code“ ist eine KI, mit der man Programm-Code zusammenfummeln kann. „Claude-Code“ selber ist letztlich auch ein Progrämmchen und dieses besteht, bevor es ausführbar seinen Dienst bereitstellt, ebenfalls schnöder Quellcode. Dieser Quellcode wurde auf einer Anthropic-eigenen Plattform versehentlich öffentlich gemacht und enthielt Details zur Funktionsweise des KI-Coding-Tools, wie auch Hinweise auf möglicherweise noch nicht veröffentlichte Modelle und Funktionen. Was dann selbstverständlich dazu führt, dass sich zumindest die Konkurrenz das mal genauer anschaut, klar! Und alles *vor* dem Börsengang, das macht keinen schlanken Fuß…
773. decoder, 30.03.2026
Das „Ozempic“ der Musikindustrie: KI ist überall, aber niemand spricht darüber
Laut einer umfassenden Recherche des Rolling Stone sind KI-Generatoren längst fester Bestandteil professioneller Musikproduktion. Top-Produzenten und Songwriter nutzen die Technologie im Verborgenen.
Anmerkung: Doch, wir mussten nachsehen: was ist „Ozempic„? Eine Abnehmspritze. Lesart: Man nimmt sie und spricht nicht drüber. Man darf wohl davon ausgehen, dass „über die Hälfte neuer Hip-Hop-Samples (soll) KI-generiert“ sind. Insider mutmaßen, dass „KI-generierte Musik bereits in den Billboard-Charts gelandet ist“, und
„Der Zug ist abgefahren.“ Der Grund für die fehlende Transparenz: Die großen Labels verfügen über keine funktionierende Software, um KI-Musik zuverlässig zu erkennen. Stattdessen verlasse sich die Branche auf ein bloßes „Ehrensystem“.
<https://the-decoder.de/das-ozempic-der-musikindustrie-ki-ist-ueberall-aber-niemand-spricht-darueber/>
772. decoder, 31.03.2026
Wegen teurer KI-Rechenzentren: Oracle streicht offenbar zehntausende Stellen
Oracle entlässt Tausende Angestellte, während das Unternehmen massiv in KI-Infrastruktur investiert.
Anmerkung: Und diese massive Investition rechtfertigt Oracle
(…) unter anderem durch einen Großauftrag von OpenAI über 455 Milliarden US-Dollar. Das Problem: Niemand weiß, ob und wann OpenAI diese Bestellungen bezahlen kann, denn auch die ChatGPT-Firma verliert massiv Geld.
<https://the-decoder.de/wegen-teurer-ki-rechenzentren-oracle-streicht-offenbar-zehntausende-stellen/>
771. winfuture, 31.03.2026
Studenten leihen sich KI-Brillen, um bei Prüfungen zu schummeln
Smarte KI-Brillen von Herstellern wie Meta entwickeln sich zum perfekten „Spickzettel“ für Klausuren. Die Wearables scannen Prüfungsfragen heimlich ein und blenden Lösungswege auf dem Glas ein. Aufseher stehen völlig machtlos daneben.
<https://winfuture.de/news,157854.html>
Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!
jott
[Zitationshilfe] : „KI-Unfall (771 bis 780)“, unter jottBlog : <https://jottblog.langkau.name/2026/04/13/ki-unfall-771-bis-780/> : aufgerufen am 00.00.20xx.
•#–#–#–#–#•

