570. t3n, 26.01.2026
Am Zebrastreifen Gas geben: Autonome Autos und Drohnen lassen sich durch simple Schilder überlisten
Drohnen, selbstfahrende Autos und humanoide Roboter verarbeiten die Umwelt durch visuelle Informationen. Doch was ist, wenn man ihnen schädliche Befehle unterjubelt?
Anmerkung: Bestimmt irgendwas mit Unfall?!?
569. heise, 28.01.2026
OpenStreetMaps sorgt sich: Tausende KI-Bots erfassen Daten
Bots sollen im großen Stil die Daten von OpenStreetMap abgreifen. Das kostet Geld und gefährdet das Projekt.
Anmerkung: So rennt der Hase! Das musste Wikipedia ja schon schmerzlich erfahren. Da haben sich einige liebe Bio-Einheiten der Spezies homo sapiens ein ganze Zeit unentgeltlich bemüht und nun schlagen andere zu.
Laut den Projektbetreibern greifen Bots nämlich gerade die offenen Daten im großen Stil ab. Diese automatisierten Besuche kosten [OpenStreetMap] Geld – etwa wegen steigender Hostingkosten.
(Und ganz nebenbei: wer sich nicht verfolgen (tracken) lassen möchte, der kann auf Google-Maps verzichten und nimmt OpenStreetMap; gibt’s auch als App…).
<https://www.heise.de/news/OpenStreetMaps-sorgt-sich-Tausende-KI-Bots-erfassen-Daten-11156876.html>
-568. golem, 27.01.2026
GITA GOPINATH: Harvard-Ökonomin warnt vor hartem KI-Crash
Wichtig sei, dass KI-Firmen Gewinne machen und ihre Börsenbewertung rechtfertigen – doch diese Bewertungen seien nicht korrekt, so Gopinath.
Anmerkung: Diese Ökonomen wissen Alles, Alles wissen die! Dass Unternehmen sogar besser Schwarze Zahlen schrieben, als Rote. Alles wissen die! Schön ist aber auch die von golem zitierte und John-David Lovelocks (Vice President Analyst bei Gartner) zugeschriebene Bemerkung
Bevor KI in Unternehmen tatsächlich in großem Maßstab zum Einsatz kommt, muss die Vorhersagbarkeit des Return on Investment deutlich verbessert werden.
Wie? Was? „Return of Investment“?!? Wir glauben, wir studieren doch noch einmal die Betriebswirtschaften! Und dann fordern wir (fettes Diplom, äh, Master in der Tasche, dicke Buxe und so…) von Unternehmern: „Werft die Goldtaler zum Fenster raus, als gäb’s kein Morgen!“.
<https://www.golem.de/news/gita-gopinath-harvard-oekonomin-warnt-vor-hartem-ki-crash-2601-204679.html>
567. golem, 27.01.2026
Anthropic-Chef warnt vor Risiken durch Superintelligenz
In einem Essay warnt Anthropic-CEO Dario Amodei vor existenziellen Risiken durch KI – und setzt gleichzeitig auf neue Sicherheitsstandards.
Anmerkung: Herr Amedoi ist da voll auf unserer Linie (sonst hieße die jottBlog-Kategorie ja auch „KI-Segen“ und nicht „KI-Unfall“). Ein Land mit KIs, (OK, gleich 50.000.000!) ist ein „System“ und
Ein solches System wäre laut Amodeis Einschätzung die schwerwiegendste Bedrohung für die nationale Sicherheit in der Geschichte.
Das Zitat macht das Lesen des golem-Artikels nicht überflüssig, ist aber eine an Kremigkeit nicht zu übertreffende Dystopie. Aber egal, golem behauptet (zu recht)
Trotz der Warnungen treibt Anthropic die Verbreitung seiner Technik voran.
[Kleines Goodie hintendran: man lese einmal Suarez „Daemon“!]
566. heise, 27.01.2026
„Wollen nicht perfekt, gut genug reicht“: KI soll US-Verkehrsregeln verfassen
Neue Regeln für die Verkehrssicherheit brauchen Monate oder Jahre. Die US-Regierung will den Prozess nun enorm beschleunigen – mithilfe einer KI von Google.
Anmerkung: Dachten wir nicht, dass wir nicht dachten, dass dieser Artikel in der jottBlog-Kategorie KI-Unfall fallen müsse? Ja, aber dann lasen wir, dass bei einer internen Vorstellung durch das US-Verkehrsministeriums
habe die KI-Technik während der Präsentation eine typische Ankündigung für eine geplante Regel erstellen sollen. Diese werden vorab veröffentlicht, damit die Öffentlichkeit dazu Stellung nehmen kann. Im konkreten Fall habe in der KI-generierten Version aber offenbar genau jener Text gefehlt, der die Regel ausführt.
Nun gut, würde man so was bemerken, dann würden die Beamten halt nacharbeiten. Wir hier in Europa sind ja immer ein bisschen hinten dran, somit können wir ja noch etwas Zeit mit einer akkuraten Straßenverkehrsordnung verbringen…
565. decoder, 23.01.2026
OpenAI-Chef Altman kündigt Codex-Updates mit hohem Sicherheitsrisiko an
OpenAI plant mehrere Veröffentlichungen rund um sein Code-Modell Codex im kommenden Monat. Die Ankündigung kommt mit einer Warnung.
Anmerkung: Es handelt sich bei „Codex“ darum
Kategorie : Cybersicherheit : Die Fähigkeit eines KI-Modells, bei der Entwicklung von Werkzeugen zu helfen und Operationen für Cyberverteidigung und Cyberangriffe durchzuführen.
Wer noch etwas Schubkraft für die eigene Phantasie benötigt, der möge den decoder-Artikel lesen. Uns fällt nach unserem Phantasie-Schub das hier ein: Pharmaunternehmen besprüht den Planeten mit selbst gebauten und bösen Viren, nicht ohne gleich noch das der Gesundheit zuträgliche Impfserum auf den Markt zu werfen, welches gegen die bösen Viren hilft. Geschäftsmodelle können so einfach sein…
564. decoder, 24.01.2026
Prognose eines OpenAI-Entwicklers: KI-Code führt zu komplexen Systemausfällen
Anmerkung: Diesem Entwickler („roon“) stimmen wir freimütig zu, wie wir uns auch ganz selbstverständlich in die machfolgend zitierte Legion einreihen wollen
Kritiker warnen vor Abhängigkeiten und schwer auffindbaren Fehlern.
563. golem, 25.01.2026
ChatGPT zitiert Musks Grokipedia
OpenAIs neuestes Sprachmodell GPT-5.2 bezieht Informationen aus Elon Musks KI-generierter Enzyklopädie.
Anmerkung: Für diejenigen unter uns, die nicht verfolgt haben, wie Grokipedia entstand – wir wollen kurz ausholen, damit es eine runde Geschichte ist: Wikipedia ist ja insgesamt immer eine Diskussion wert und in den vergangenen 25 Jahren ist da auch nicht immer alles geschmeidig gewesen. Letztlich fandet Herr Musk den Inhalt des Wikis zu woke und zu links, etc. und fummelte sich (nach dem er mit dem Zusammenfummeln einer eigenen Welt abgeschlossen hatte) seine eigene Enzyklopädie zusammen, Grokipedia eben. Stramm Rechts und mit der Wahrheit/Realität (man weiß schon…) bedingt auf Kuschelkurs, dabei wurde (und wird) sich üppig aus der Wikipedia bedient, alles mit KI, selbstverständlich und es editiert auch nur noch die KI, nix da homo sapiens, alles automatisch.
Und nun passiert das, was mit vier Worten in der Überschrift völlig ausreichend in Szene gesetzt wird. Und eben genau das ist eine Katastrophe.
<https://www.golem.de/news/umstrittene-quelle-chatgpt-zitiert-musks-grokipedia-2601-204578.html>
562. t3n, 23.01.2026
Personal Intelligence: Googles Gemini wird nützlicher – auf Kosten des Datenschutzes
Um Gemini im Alltag noch hilfreicher zu machen, ist Google auf die persönlichen Informationen der Nutzer:innen angewiesen. Dieser hohe Grad der Personalisierung hat allerdings seinen Preis.
Anmerkung: Wer die an sich selbst gestellte Frage „Was soll ich heute Abend essen?” wirklich nicht beantworten kann, der sollte sich ernsthaft mit einer Personal Intelligence beschäftigen.
561. golem, 22.01.2026
INTELLIGENTES EINKAUFEN: Ebay sperrt KI-Shopping-Bots aus
Ebay untersagt in aktualisierten Nutzungsbedingungen den Einsatz von KI-gesteuerten Einkaufsrobotern.
<https://www.golem.de/news/intelligentes-einkaufen-ebay-sperrt-ki-shopping-bots-aus-2601-204523.html>
Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!
jott
[Zitationshilfe] : „KI-Unfall (561 bis 570)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/08/ki-unfall-561-bis-570/> : aufgerufen am 00.00.20xx.
•#–#–#–#–#•
