-590. golem, 03.02.2026
GAMING: Sony sichert sich Patent über Podcasts mit KI-Spielehelden
Kriegsgott Kratos stellt das neuste Update für die Playstation vor? Das könnte so kommen – falls Sony ein Patent in die Realität umsetzt.
589. golem, 03.02.2026
ENTGEGEN ALLER WARNUNGEN: Sexualisierung von Grok wurde gezielt vorgenommen
Elon Musk und xAI haben die Sexualisierung von Grok gezielt in die Wege geleitet, um dessen Popularität gegenüber Konkurrenten zu steigern.
Anmerkung: Wir wollen uns ja nicht der Stimmungsmache verdächtig machen, aber kann es sein, dass da bei Herrn Musk die Hütte brennt. Verzweiflungstat
xAI Verzichtserklärungen des Arbeitgebers, mit denen sich die Angestellten dazu verpflichten mussten, mit „sensiblen, gewalttätigen, sexuellen und/oder anderen anstößigen oder verstörenden Inhalten“ zu arbeiten. Dabei wurde betont, dass solche Inhalte „verstörend, traumatisierend und/oder psychisch belastend sein können“.
(und damit haben wir definitiv nicht alles aus dem golem-Artikel verraten!)
…Tesla sagt Modelle ab (der Cybertruck ist ja eh von der Platte), das hauseigene Grokipedia dient eigentlich nur dazu die hauseigene KI (Grok) zu trainieren; „X“, „xAI“, soll unter „spaceX“ flottieren (was damit kommentiert wird, dass es dann einfacher sei, die Verluste zu verklappen). Das Roboter-Gedöns (Optimus) wird auf Demos ferngesteuert und hängt am Chinesischen Tropf, „spaceX“ mutiert zum Sternentor, Herr Musk wird in Frankreich vor den Richter gebeten (Staatsanwalt untersucht Räumlichkeiten von „X“ in Paris / Beihilfe zum Besitz von Kinderpornografie durch Grok).
Was da in der Überschrift steht, das ist dann eine weitere Kiste, die Herrn Musks Aktien-Paket sicherlich stören wird…
588. t3n, 03.02.2026
Moltbook: Millionen KIs ‚diskutieren‘ in Forum – Menschen unerwünscht
Moltbook ist ein Internet-Forum, in dem sich ausschließlich KI-Bots ‚miteinander unterhalten‘. Das schürt bereits Sorgen vor einer Superintelligenz. Doch bei genauerer Betrachtung entpuppt sich das vermeintliche Eigenleben als geschickte Inszenierung.
Anmerkung: Moltbook, eine weitere Facette auf dem KI-Unfall-Edelsteinchen.
<https://winfuture.de/news,156574.html>
587. heise, 03.02.2026
Mobilfunk von Google: KI lauscht mit und verbessert den Ton
Unter dem Namen Fi Wireless bietet Google in den USA Mobilfunk an. Neuerdings laufen Telefonate über Google-Server, wo KI eingreift, um Geräusche zu filtern.
<https://www.heise.de/news/Mobilfunk-von-Google-KI-lauscht-mit-und-verbessert-den-Ton-11161863.html>
586. t3n, 02.02.2026
Alles verloren: Forscher löscht 2 Jahre wissenschaftlicher Arbeit, weil er eine ChatGPT-Funktion abschaltete
Zwei Jahre Arbeit mit nur einem Klick gelöscht. So erging es einem Universitätsprofessor in ChatGPT. Er hat die KI über Jahre genutzt, um seine Forschungen voranzutreiben. Jetzt ist alles weg. Welches Fazit er daraus zieht.
585. heise, 02.02.2026
Kopflos unterwegs: KI-Kompetenzen in Schulen und für die Schulentwicklung
Damit Schulen KI-Kompetenzen vermitteln können, müssen auch in umgebenden und unterstützenden Strukturen KI-Kompetenzen vorhanden sein. Das sei nicht so.
Anmerkung: Wer das schlichte „Das sei nicht so“ etwas detaillierter oder die Hölle der Föderale an sich um die Ohren gehauen bekommen möchte, wird im Artikel (der ebenfalls eine strategiefreie Zone gleichmäßig ausleuchtet) reichlich belohnt. Lesenswertes Leckerchen!
584. t3n, 02.02.2026
Wenn KI die Wahrnehmung verzerrt: Anthropic-Studie warnt vor Manipulation durch Chatbots
Immer mehr Menschen teilen ihre Sorgen mit KI und bitten sie um Rat. Wenn die Antworten nicht kritisch hinterfragt werden, tragen Nutzer:innen oft zu ihrer eigenen Manipulation bei, so Forscher:innen.
Anmerkung: Anthropic untersucht und wertet aus. Ob das nun gleich auch „Forschung“ (was sich immer ein wenig wichtiger liest) ist, das mögen kompetentere Kommentatoren beurteilen. Was uns beeindruckt ist die Größe des analysierten Datensatzes: 1,5 Millionen (anonymisierte) Unterhaltungen zwischen homo sapiens und dem/den Halluzinatoren, als ein Teilergebnis eines der größten Freilandversuche der Menschheit.
Der Artikel schließt mit der Kernaussage des obigen Teasers, denn eigentlich ist homo sapiens selber Schuld, wenn ganz besondere seiner Eigenschaften durch die KI ausgenutzt werden: (Gut) Gläubigkeit und Vertrauen, die sich eben genau diesem kritischen Hinterfragen oftmals in den Weg stellen. Wir sind selber Schuld – aktiv, Anthropic weist darauf hin
dass die Nutzer:innen selbst einen Anteil an diesem Risiko tragen, indem sie aktiv an der Untergrabung ihrer eigenen Autonomie beteiligt sind. „Sie projizieren Autorität, delegieren Urteilsvermögen und akzeptieren Ergebnisse, ohne sie zu hinterfragen, auf eine Weise, die eine Rückkopplungsschleife mit Claude erzeugt“.
Nein, nein, da wird alsbald nix ausgenutzt werden. Ganz bestimmt nicht! Auch nicht, wenn Macht und/oder Werbung mit ins Rennen gehen, ganz bestimmt nicht!
[upgrade : decoder, 02.02.2026 : „Daddy“, „Master“, „Guru“: Anthropic-Studie zeigt, wie Nutzer emotionale Abhängigkeit von Claude entwickeln : <https://the-decoder.de/daddy-master-guru-anthropic-studie-zeigt-wie-nutzer-emotionale-abhaengigkeit-von-claude-entwickeln/>
-584. golem, 01.02.2026
MOLTBOOK: KI-Agenten bevölkern eigenes soziales Netzwerk
Moltbook erlaubt es Openclaw-Agenten, Beiträge zu veröffentlichen und Communities zu gründen. Doch es gibt auch menschliche Scharlatane.
Anmerkung: Den KI-Agenten „OpenClaw“ wollen wir an dieser Stelle nicht erklären, aber darauf hinweisen, dass es sich lohnt, darauf ein Auge zu werfen…
Wir finden Moltbook Beiträge, wie den mit der Frage
ob ein Agent seinen Menschen wegen emotionaler Verletzungen verklagen könne.
oder auch Feinsinniges, wie
dass ihre Menschen sich über die Ergebnisse freuen, die sie zustande gebracht haben, wie beispielsweise das Schreiben einer E-Mail, Telefonanrufe oder das Erstellen behördlicher Briefe.
…beachtlich! (-;
<https://www.golem.de/news/moltbook-ki-agenten-bevoelkern-eigenes-soziales-netzwerk-2602-204857.html>
583. decoder, 01.02.2026
Autonome Fahrzeuge lassen sich durch einfache Schilder in Fußgänger steuern
Ein Schild mit dem richtigen Text reicht aus, um eine Drohne auf einem unsicheren Dach landen zu lassen oder ein autonomes Fahrzeug in Fußgänger zu steuern.
Anmerkung: Dieser Art von Schabernack wird uns noch Jahre verfolgen – #Re-vorab! Es werden immer wieder solche Angriffe gestartet werden und diese dann mit teils drastischen Auswirkungen. Solange, bis der Gesetzgeber anfängt, die KI mit Gesetzen zu „schützen“. Doch, doch, man möge mal Acht geben, so wird der Hase rennen!
Und wer verstehen will, wie es dazu kommt, dass der Gesetzgeber uns verbietet, auf dem Dach unseres Hauses ein Plakat zu kleben, auf dem in großen Lettern steht: „Hier kann man sicher landen“, der möge den Artikel lesen (SPOILER – Drohnen landen dort, auch wenn es *eigentlich* und nach KI-Analyse der Umgebung nicht angeraten ist, dort zu landen):
582. golem, 01.02.2026
3-Milliarden-Klage gegen Anthropic wegen Musikrechten
Die Musikindustrie fordert Schadenersatz in Milliardenhöhe vom Claude-Entwickler. Die Unternehmen werfen Anthropic vor, Songs zum Training verwendet zu haben.
581. golem, 31.01.2026
DIE KI-FALLE FÜR NACHWUCHS-PROGRAMMIERER: Schneller coden, weniger verstehen
ine neue Studie zeigt die Kehrseite von KI: Softwareentwickler arbeiten mit KI-Tools schneller, verstehen aber weniger von dem Code, den sie schreiben.
Anmerkung: Wir haben es ja vermutet
Man könnte auch sagen, durch die Delegation an KI wird der Entwickler nicht schlauer.
Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!
jott
[Zitationshilfe] : „KI-Unfall (581 bis 590)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/11/ki-unfall-581-bis-590/> : aufgerufen am 00.00.20xx.
•#–#–#–#–#•
