210. t3n, 23.09.2025
Googles KI-Sparte warnt: Was, wenn die KI nicht mehr gehorcht?
Eine KI, die eigene Pläne verfolgt und sich Befehlen widersetzt. Was wie Science-Fiction klingt, ist für Google Deepmind eine reale Gefahr, der das KI-Labor nun mit neuen Regeln begegnen will.
Anmerkung: Interessant ist schon, dass gerade Google warnt, aber nicht ansatzweise mit der Wimper zuckt, wenn es um einen schicken Freiland-Versuch geht… Wir hatten schon einmal im „-189. KI-Unfall“ darauf hingewiesen (decoder, 13.09.2025 : GPT-5 täuscht am besten: OpenAIs neues KI-Modell dominiert im „Werwolf“-Spiel). Also, sollte es bei einem jottBlog-Leser (wider Erwarten) an Phantasie mangeln und man habe gerade nicht die richtigen Bilder im Kopf – bitte Carpenters „Dark Star“ schauen.
Die nachfolgende Auflistung macht das Lesen des t3n-Artikels nicht überflüssig, wenn wir aus dem „Frontier Safety Framework“ (abgerufen 23.09.2025) extrahieren, nämlich die Risikobewertung und Gefahr der KI:
- über Halluzinationen (faktisch falsche Antworten) hinaus
- macht nicht mehr nur versehentlich Fehler
- aktiv und zielgerichtet gegen die Interessen oder Anweisungen seiner menschlichen Bediener:innen
- Weigerung sich abzuschalten
- Erzeugung betrügerischer Ergebnisse, um eigene, für Menschen nicht nachvollziehbare Ziele zu verfolgen
- darauf trainiert, die Überzeugungen von Menschen systematisch zu manipulieren (Anmerkung: das hat denen sicherlich Herr Musk gesteckt!)
Aber selbstverständlich hat man Gegenmaßnahmen bereit, denn man muss ja nur den „Gedankengang“ der KI verfolgen. Aber (wir zitieren t3n):
Dieser Ansatz stößt jedoch an Grenzen. Die Autor:innen des Berichts räumen selbst ein, dass zukünftige, fortschrittlichere KI-Modelle womöglich in der Lage sein werden, komplexe Schlussfolgerungen zu ziehen, ohne diesen Prozess für eine Überprüfung offenzulegen.
…Bäm, da hammaswieder! Eigentlich versteht man ja jetzt schon nicht mehr, wie die KI funzt, da uns (homo sapiens) mehr als 3,5/4 Dimensionen Probleme bereiten. Aber man möge sich diese obige Feststellung auf der Zunge zergehen lassen: die Dinger, von Menschenhand gemacht, legen *nicht* offen (also, nix Log-Dateien und anderer altmodischer Kram). Es ist eine Bankrotterklärung und einfach nicht zu fassen.
<https://t3n.de/news/google-deepmind-ki-sicherheit-kontrollverlust-1708939/>
209. heise, 23.09.2025
Fast alle Quellen erfunden: 10.000 Dollar Strafe für US-Anwalt nach KI-Nutzung
Weil ein Anwalt in Kalifornien einen Antrag voller falscher Quellenangaben bei Gericht eingereicht hat, muss er Strafe zahlen. Richtig einsichtig ist er nicht.
Anmerkung: Ja, ja, hat er nicht recht, müssen wir nicht alle ein wenig mit der Zeit gehen?!?
208. heise, 23.09.2025
Facebook-Dating: Jetzt auch mit KI
Swipe-Fatigue ist eine Art Dating-Burn-out. Dagegen möchte Meta etwas tun und führt KI-Funktionen für Facebook-Dating ein.
Anmerkung: Cool! Erst mit Social Media den Kompass verbiegen und dann noch KI-Schlangenöl drauf. So mögen wir’s, da sind wir voll bei der Sache!
Dating-Fatigue nennt sich das Phänomen, bei dem Menschen zwar roboterhaft weiter Kandidaten durchschauen, aber eigentlich nicht so richtig bei der Sache sind.
<https://www.heise.de/news/Facebook-Dating-Jetzt-auch-mit-KI-10666833.habe>
207. t3n, 22.09.2025
Fiktive Titel und halluzinierende Tools: KI ist für Bibliotheken ein Problem
Ähnlich wie Universitäten und Schulen stellt der Siegeszug der KI auch Bibliotheken vor große Herausforderungen. Auf der einen Seite durch fehlerhafte KI-Tools. Zum anderen durch Nutzer:innen, die ChatGPT mehr vertrauen als den Bibliothekar:innen.
Anmerkung: Wir wissen, dass nicht die KI-Anbieter für den Schaden aufkommen, das müssen andere erledigen. Und wir gewinnen mehr und mehr die Gewissheit, wer insgesamt den Schaden auf sich nimmt, nämlich wir:
Das Problem, so Taylor [leitende Bibliothekarin an der University of Massachusetts], sei, dass die KI-Anbieter ihre Produkte überstürzt auf den Markt brächten.
<https://t3n.de/news/titel-tools-ki-bibliotheken-problem-1708741/>
206. telepolis, 23.09.2025
Studie warnt: Künstliche Intelligenz verleitet Menschen zu unehrlichem Verhalten
Wenn Menschen Aufgaben an KI delegieren, lügen sie häufiger, zeigt eine neue Studie mit über 8.000 Teilnehmern. Auch KI-Systeme folgen oft unethischen Befehlen.
Anmerkung: telepolis erlaubt sich, den Kernsatz der Studie („Delegation to artificial intelligence can increase dishonest behaviour“, unter nature mit open access, die im Artikel mit einem Internetzverbinder veredelt ist) zu zitieren und wir wollen es gleichtun (abgerufen 23.09.2025):
Wenn Menschen Aufgaben an KI auslagern, schafft dies eine „moralische Distanz“. Sie sind dann eher bereit, unethisch zu handeln, als wenn sie selbst die Verantwortung tragen.
205. t3n, 22.09.2025
Neue OpenAI-Studie zeigt, warum KI manchmal bewusst lügt
Aktuelle Forschungsergebnisse belegen, dass moderne KI-Modelle bewusst falsche Angaben machen, um ihre Ziele zu erreichen. Dadurch wird ihre Entwicklung und sichere Anwendung noch komplexer als gedacht.
Anmerkung: Auch hier wieder: da muss wild geforscht werden, um zu sehen, dass es nicht korrekt funzt! Zum anderen sollte man alle Beteiligten – also auch die Forscher – zu akkuraterem Sprachgebrauch auffordern. Wir lesen, KI
- zeigt problematisches Verhalten
- nutzt Lügen
- nutzt Intrigen
- passt sein Verhalten an
- präsentiert sich mit Absicht
- hat wahre Ziele
- verfolgt Ziele im Hintergrund
- verschleiert wahre Ziele
- kann raffiniert vorgehen
- lügt
- präsentiert mit großer Überzeugung
- biedert sich an
…alles aus dem Artikel extrahiert.
<https://t3n.de/news/neue-openai-studie-zeigt-warum-ki-manchmal-bewusst-luegt-1708774/>
-204. decoder, 19.09.2025
Abu Dhabi will bis 2027 zur weltweit ersten vollständig KI-basierten Regierung werden
Abu Dhabi will bis 2027 eine vollständig KI-native Regierung mit über 200 KI-Lösungen aufbauen.
Anmerkung: OK, ein Minus („-204.“), weil’s halt noch nicht wirklich geknallt hat. Nun gut, wir wissen bereits jetzt, dass in ein paar Jahren die jottBlog-Kategorie „KI-Unfall“ Anregungen finden wird. Wir spendieren hier nicht nur den #Dr-Theopolis, sondern wir sollten uns vielleicht auch einen Moment der Rückschau gönnen: Albanien, ganz weit vorne: 61. KI-Unfall!
203. decoder, 18.09.2025
Luma AI stellt Ray3 vor: KI-Videomodell erzeugt erstmals HDR-Inhalte und kann „denken“
Luma AI hat sein neues KI-Videomodell Ray3 vorgestellt, das laut dem Unternehmen als erstes generative Videos in HDR (High Dynamic Range) in Studioqualität erzeugen kann.
Anmerkung: So, so, „denken“ kann das Pony (52. KI-Unfall) also!
202. decoder, 18.09.2025
Meta verhandelt mit Verlagen über KI-Lizenzen für journalistische Inhalte
Meta spricht mit Medienhäusern wie Axel Springer, Fox Corp. und News Corp über Lizenzverträge für den Einsatz journalistischer Inhalte in KI-Anwendungen.
Anmerkung: Schlicht unserer Linie treu bleibend, wollen wir uns starrhalsig gerieren: der Journalismus verliert, die Kultur verliert, der Leser verliert. Gleichschaltung? Ja.
<https://the-decoder.de/meta-verhandelt-mit-verlagen-ueber-ki-lizenzen-fuer-journalistische-inhalte/>
202. golem, 22.09.2025
Dieb dunkel, Student blond – wie KI Vorurteile reproduziert
Millionen Bilder entstehen täglich mithilfe von KI – in Werbung, Bildung und Medien. Wir haben getestet, wie dabei Stereotype verfestigt werden.
201. golem, 22.09.2025
BMW-KI soll Autos schneller entwickeln
BMW investiert über zehn Milliarden Euro in eine neue Modellgeneration und kündigt ein neues Bedienkonzept und KI-gestützte Entwicklung an.
Anmerkung: Aha, selbstverständlich hat BMW auch ein Pony (52. KI-Unfall)! Herr Post (BMW-Entwicklungsvorstand) zur Fahrzeugentwicklung:
Die Technologie soll nicht nur die Fahrzeuge selbst intelligenter machen, sondern auch die Entwicklungsprozesse beschleunigen. „Das wird unsere Prozesse maßgeblich beschleunigen“
…oh, sicherlich damit die Mitarbeiter für andere wichtige Aufgaben auch mal so richtig viel Zeit haben – vermutlich. Was uns ein wenig stutzen läßt, ist das folgende Zitat
In China arbeitet BMW mit dem Unternehmen Momenta zusammen, einem Spezialisten für KI-basierte Fahrassistenzsysteme.
…die Kollegen will man doch überholen, wenn wir den Artikel richtig verstanden haben sollten. Wirklich, man entwickelt in China?
Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!
KI-Unfall (191 bis 200), KI-Unfall (211 bis 220)
jott
[Zitationshilfe] : „KI-Unfall (201 bis 210)“, unter jottBlog : <https://jottblog.langkau.name/2025/09/25/ki-unfall-201-bis-210/> : aufgerufen am 00.00.20xx.
#-#-#-#-#