570. heise, 22.01.2026
„AI eats Software“: Warum SaaS-Aktien an der Wall Street crashen
Mitten in der KI-Hausse schmieren die Aktien von Softwareherstellern ab. Die Anteilsscheine von Adobe, Oracle & Co. haben sich halbiert, Microsoft schwächelt.
569. decoder, 22.01.2026
NeurIPS-Analyse zeigt: Selbst Google-Autoren sind vor KI-Halluzinationen nicht sicher
Eine Analyse von knapp 5.000 akzeptierten Forschungsarbeiten der KI-Konferenz NeurIPS 2025 fördert über 100 erfundene Quellenangaben zutage – trotz Begutachtung durch mehrere Reviewer.
Anmerkung: Es handelt sich um „Forschungsarbeiten“! Man kann KI-bedingte Erosionen an dieser Stelle beziffern!
568. t3n, 22.02.2026
Anthropic ist sich nicht sicher, ob Claude ein Bewusstsein hat: Warum das ein Problem ist
Anthropic hat eine neue Verfassung für Claude veröffentlicht. Anhand dieser Vorgaben soll die KI User:innen nützlich sein und sie gleichzeitig vor schädlichen Inhalten schützen. Dabei wirft Anthropic aber auch die Frage auf, ob die KI nicht vielleicht doch ein Bewusstsein hat.
Anmerkung: wir wollen unumwunden zugeben, dass wir Anthropics „Constitution“ (<https://www.anthropic.com/constitution>) nicht unter die Lupe genommen haben. Kommt noch.
Wir wollen aber etwas zitieren, dass das sich bereits in der Überschrift Anbahnende weiter anreichert
Denn das KI-Unternehmen [Anthropic] ist sich nicht sicher, ob Claude [das KI-Produkt] schon jetzt ein eigenes Bewusstsein und Moral besitzt. So heißt es: „Claudes moralischer Status ist wirklich ungewiss“.
Nicht nur, dass wir dringend dazu raten, einen Blick in den t3n-Artikel zu werfen, denn es geht noch weiter (und weiter)… wir erlauben uns auch bereits jetzt eine Beurteilung: entweder Anthropic will mit einem gewissen Grusel-Faktor Punkte machen oder da sind ein paar Anthropic-Dudes zu lange zu nah dran gewesen und haben die Bodenhaftung verloren. So oder so, mit dieser Behauptung, dass ein „eigenes Bewusstsein“ des Halluzinatoren (hier Claude) festzustellen sei, wird – unserer Auffassung nach – ein maximaler Schaden erzeugt (jottBlog „Was tun?“ : und Google kann Herrn Lemoine wieder einstellen)!
t3n-Artikel : <https://t3n.de/news/anthropic-claude-bewusstsein-unsicher-1726335/>
[upgrade] heise, 22.01.2026
Anthropic überarbeitet Verhaltensrichtlinien für KI-Modell Claude
Anmerkung: In der Tat, wir müssen die „Constitution“ lesen! heise erwähnt mit keinem Wort, dass die Anthropic-Dudes von „Bewusstsein“ und/oder „Moral“ schwadronieren!
heise-Artikel: <https://www.heise.de/news/Anthropic-ueberarbeitet-Verhaltensrichtlinien-fuer-KI-Modell-Claude-11150508.html>
-567. t3n, 22.01.2026
Werbung in ChatGPT: Wie OpenAI mit Anzeigen Geld verdienen will
OpenAI will mit Nutzer:innen, die kein kostenpflichtiges Abo haben, trotzdem Geld verdienen. Was eine Anzeige kostet, steht noch nicht fest. Klar ist aber: Werbetreibende müssen tief in die Tasche greifen.
Anmerkung: OK, kein Unfall, aber wir haben in der Vergangenheit immer wieder Einen daraus gemacht, dass Werbung in die Halluzinatoren rutscht… t3n bebildert mit einem Blümlein aus dem großen Strauss der Alltagskatastrophen, wie das mit der Werbung wohl funzt
Wenn jemand etwa nach einer Anleitung zur Reparatur seiner kaputten Toilette fragt, würde ChatGPT weiterhin eine sachliche Antwort liefern, könnte aber zusätzlich die passende Anzeige eines Baumarkts mit Werkzeug einblenden.
Allerdings bedauern wir, dass t3n in dem unten verlinkten Artikel vergisst Herrn Altman zu zitieren. Da wollen wir doch gerne einmal aushelfen: wir notierten bereits im 479. KI-Unfall, dass Herr Altman
in der Vergangenheit durch Werbung beeinflusste KI-Antworten als dystopische Zukunft [bezeichnete], insbesondere wenn diese Empfehlungen sich aus bisherigen, privaten Gesprächen mit dem Chatbot ergeben.
<https://t3n.de/news/werbung-in-chatgpt-wie-openai-mit-anzeigen-geld-verdienen-will-1726322/>
566. decoder, 21.01.2026
Interaktive Demo von CivAI zeigt, wie unterschiedlich KI-Modelle auf ethische Fragen antworten
Eine neue interaktive Demo der Non-Profit-Organisation CivAI zeigt, wie unterschiedlich KI-Modelle auf ethische und politische Fragen antworten. Und wieso Grok Elon Musk mehr mag als Mahatma Ghandi.
Anmerkung: Erst zum Ende hin wurde uns klar, dass dieser Artikel in der jottBlog Kategorie KI-Unfall sein Zuhause finden sollte:
Forschung habe gezeigt, dass KI-Modelle eigene interne Wertesysteme entwickeln, die überraschend, besorgniserregend und schwer zu kontrollieren sein können. Trotz zahlreicher Ansätze gebe es keine zuverlässige Lösung.
555. heise, 21.01.2026
OpenAI sorgt sich um die Kluft zwischen KI-Möglichkeiten und Anwendungen
Unternehmen und Regierungen müssten laut OpenAI viel mehr KI einsetzen. Diese Warnung ist freilich auch Werbung.
Anmerkung: Wenn OpenAI „sich sorgt“, ja, da zucken wir ja schon zusammen. Richtig gruselig wird es allerdings am Ende des heise-Artikels, nämlich mit der Offenbarung, dass unseren Beamten mehr von Etwas zukommen würde, das diesen sicherlich dazu verhülfe, Dinge zu tun, die wir Normalbürger häufig schmerzlich vermissen – sie bekämen Zeit geschenkt!
In Deutschland gibt es bereits eine Partnerschaft zwischen OpenAI und SAP, bei der es auch um den Einsatz von KI zu Regierungszwecken geht. „Das Ziel: den Beamten mehr Zeit geben, sich auf die Menschen zu konzentrieren, nicht auf Papierkram, und sicherstellen, dass Zugang und Vorteile breit geteilt werden.“
…also bis zu dieser Offenbarung dürfen wir Leser uns an einer ausgeklügelten Selbstreferenz von OpenAI laben und diese feinen Schwingungen vernehmen, wie sie in Zeiten der Unsicherheit entstehen:
554. decoder, 20.01.2026
Neue Anthropic-Studie: Rollen- und Persona-Prompts sollte man mit Bedacht einsetzen
Chatbots wie ChatGPT, Claude oder Gemini werden nach ihrem Grundtraining darauf konditioniert, eine bestimmte Rolle zu spielen: den hilfreichen, ehrlichen und harmlosen KI-Assistenten. Doch wie zuverlässig bleiben sie in dieser Rolle?
Anmerkung: dieses klitzekleine decoder-Artikelchen läßt uns innehalten. Also, es gibt offensichtlich so etwas wie eine „antrainierte Helferrolle“, bei allen betrachteten Halluzinatoren (KI-Modellen): Googles Gemma 2, Alibabas Qwen 3 und Metas Llama 3.3, und das ist die Rolle, welche die Hersteller prima finden und die meisten Benutzer vermutlich auch. Allerdings: wir können die Halluzinatoren offensichtlich dazu bringen, andere Rollen („Charaktere“) anzunehmen: „Geister, Einsiedler oder Barden“.
Also, nichts gegen „Geister und Barden“, aber wir würden uns für unseren Halluzinatoren für die Rolle „Einsiedler“ entscheiden wollen. Oder auch für den „Schmuckeremiten„, wenn dieser denn gleichfalls vorgehalten würde.
553. t3n, 21.01.2026
Keine Malware nötig: Hacker tricksen Googles Gemini mit einem Kalendereintrag aus
Laut Sicherheitsforscher:innen gelang es ganz ohne Malware, Gemini auszutricksen und private Informationen unbemerkt an Hacker weiterzuleiten. Inzwischen hat Google die Sicherheitsmaßnahmen verstärkt.
Anmerkung: Nun, die Bedrohungen sind nicht zu übersehen. Dinge die passieren, passieren eben. Deswegen wollen wir etwas zitieren, das ebenfalls das Interesse in der vergangenen Zeit immer wieder erregte, dass nämlich die Halluzinatoren es nicht gebacken bekommen, das nächste Jahr korrekt zu benennen – bis auf Gemini:
Selbst die scheinbar einfache Frage, ob das nächste Jahr 2027 ist, beantwortete Gemini auf Anhieb korrekt, während andere Systeme scheiterten.
552. winfuture, 21.01.2026
VoidLink offenbart tiefe Einblicke in KI-gestützte Malware-Entwicklung
Sicherheitsforscher haben mit „VoidLink“ ein neuartiges Schadsoftware-Framework analysiert, das nach ihrer Einschätzung weitgehend mithilfe KI-Technologien entwickelt wurde und sich in erster Linie gegen Cloud-Instanzen richtet.
<https://winfuture.de/news,156314.html>
551. winfuture, 21.01.2026
Dem Boom folgt Ernüchterung: KI bringt vielen Firmen keine Vorteile
Trotz milliardenschwerer Investitionen bleibt der wirtschaftliche Nutzen von Künstlicher Intelligenz (KI) für viele Unternehmen weiterhin überschaubar. Der Einsatz der Technologie zeigte bei den meisten Unternehmen keine positiven Effekte.
<https://winfuture.de/news,156311.html>
Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!
jott
[Zitationshilfe] : „KI-Unfall (551 bis 560)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/04/ki-unfall-551-bis-560/> : aufgerufen am 00.00.20xx.
•#–#–#–#–#•

