660. heise, 19.02.2026
Sicherheitsrisiko: KI-Passwörter sind extrem leicht zu knacken
Wer Chatbots für die Erstellung von Passwörtern nutzt, lebt gefährlich. Eine neue Analyse zeigt, dass ChatGPT und Co. vorhersehbare Muster erzeugen, die Hacker in Sekunden knacken können. Das liegt daran, dass echter Zufall für KIs ein Problem ist.
Anmerkung: Wer sich bis hierhin verläuft und Halluzinatoren nutzt, dem raten wir: lesen!
<https://winfuture.de/news,156979.html>
-659. heise, 19.02.2026
Kommentar: Die KI-Bilder im „heute journal” sind ein schwerer Tabubruch
Das „heute journal“ bebildert einen Nachrichtenfilm mit emotionalen, aber falschen Bildern. Das ist kein einfach entschuldbarer „Fehler“, (…).
Anmerkung: An sich Medien-Gezumpel. Aber wir wollen erkennen: es kriecht immer weiter rein in den Alltag…
658. decoder, 19.02.2026
KI-Agenten können bereits die meisten getesteten Smart-Contract-Schwachstellen ausnutzen
OpenAI und die Krypto-Investmentfirma Paradigm haben gemeinsam EVMbench entwickelt, einen Testrahmen, der misst, wie gut KI-Agenten Sicherheitslücken in Smart Contracts auf Ethereum-Blockchains finden, reparieren und ausnutzen können.
Anmerkung: Keine Frage, viele lustige Begriffe, die keiner versteht. Diese Smart-Contracts sind letztlich kleine Progrämmchen auf einer Blockchain (Ethereum ist ein Anbieter einer Blockchain-Technologie) auf der – zum Beispiel – eben auch virtuelle Goldtaler verwaltet werden können. Und diese Progrämmchen kann man strubbelig machen und schwupps sind die virtuellen Goldtaler weg. Nicht so schön, aber ganz einfach. Das ist immer so, wenn’s ins Digitale geht. Vielleicht hat Herr Altmann (CEO OpenAI) doch größere Geldsorgen, als wir annahmen…
657. decoder, 19.02.2026
Meta steckt 65 Millionen Dollar in US-Wahlkampf, um KI-Regulierung zu verhindern
Meta investiert 65 Millionen Dollar in die Beeinflussung von Wahlen auf US-Bundesstaatsebene, um KI-freundliche Politiker zu unterstützen.
Anmerkung: Na, wenn das mal der nach Regulierung lechzende Herr Altman (CEO OpenAI) mitbekommt (siehe 655. KI-Unfall auf dieser Seite), dann wird der bestimmt ganz dolle mit dem Meta-Oberhäuptling Herrn Zuckerberg schimpfen! Denn
Das ist die bisher größte politische Investition des Unternehmens, berichtet die New York Times.
656. heise, 19.02.2026
Betrugsmasche: Falsche „Gemini“-Chatbots verkaufen falschen „Google Coin“
Eine neue Betrugsmasche beruht auf angepassten KI-Chatbots. Diese drängen Opfer dazu, wertlose Kryptowährungen zu kaufen.
Anmerkung: Es lohnt sich dann ein Blick in den Artikel zu werfen, wenn wir neugierig sind, was ein KI-Agent alles so kann!
655. heise, 19.02.2026
OpenAI-Chef: KI braucht dringend Regulierung
OpenAI-CEO Sam Altman sieht die Superintelligenz als Gefahr und schlägt internationale Überwachung vor. Das ist auch Marketing.
Anmerkung: Wir wollen uns der im Teaser befindlichen Einschätzung anschließen: es ist Marketing. Eine Regulierung? Ach so, bei der *kommenden* Super-KI!
Bei einem bereits vorliegenden und völlig freidrehenden Freilandversuch wäre diese ebenfalls angeraten, oder? OpenAI geht aber offensichtlich einen anderen Weg: man läßt sich lieber verklagen – wegen der Mitschuld an Suiziden, zum Beispiel – als dass man Halluzinatoren (KI) in einer sichereren Fassung in den Markt schiebt. So sieht das aus, Herr Altman.
<https://www.heise.de/news/OpenAI-Chef-KI-braucht-dringend-Regulierung-11182579.html>
654. t3n, 19.02.2026
Dieser Oxford-Professor warnt vor einer KI-Krise – und zieht einen beunruhigenden Vergleich
Forscher sieht das Risiko eines „Hindenburg-Moments“: Aufgrund des Drucks, den KI-Unternehmen sich im Wettbewerb auferlegen, könnte ein einziger Vorfall das Vertrauen in die gesamte Branche massiv schädigen.
Anmerkung: „Dieser“ Professor ist Herr Wooldridge, der wenig Aufhebens macht und dessen Auffassung
Die zunehmende Verbreitung von Chatbots mit leicht zu umgehenden Sicherheitsmechanismen sei ein Hinweis darauf, dass kommerzielle Interessen häufig Vorrang vor umfassenden Sicherheitsprüfungen haben.
…wir gerne teilen. Wir umschreiben das auch gerne mit „Freilandversuch“. Der t3n-Artikel endet mit einer Einschätzung Herrn Wooldridges, von der wir wünschten, dass sie viele Nachahmer fände
Wir müssen verstehen, dass es sich dabei nur um glorifizierte Tabellenkalkulationen handelt. Sie sind Werkzeuge und nichts weiter.
653. golem, 19.02.2026
Accenture macht KI-Nutzung zur Bedingung für Beförderungen
Die Unternehmensberatung Accenture überwacht die KI-Nutzung ihrer Führungskräfte. Wer die Tools ignoriert, gefährdet seine Karriere.
652. heise, 18.02.2026
„Wenn das jemand baut, sterben alle“ – Debatte über Super-KI
Viele haben sich an ChatGPT und andere nette KI-Helfer gewöhnt: Reiseplanung, Alltagsfragen, Assistenz im Job. Die rasante Entwicklung wirft aber Fragen auf.
Anmerkung: Was nicht alle wissen: auch diesen heise-Artikel hat die KI mitgelesen (upps – und den jottBlog auch)!
<https://www.heise.de/news/Wenn-das-jemand-baut-sterben-alle-Debatte-ueber-Super-KI-11180647.html>
651. golem, 18.02.2026
Google Gemini täuscht Speicherung von Medizindaten vor
Ein Software-Tester entlarvt systematisches Lügen bei Google Gemini. Die KI gab an, sensible Medizindaten zu sichern – lediglich als „Placebo“.
Anmerkung: Überschrift und Teaser reichen vermutlich aus, den Drang zu verspüren, den ganzen Artikel zu lesen. Hier noch eine Teil-Pointe, in der so ein leichter Zynismus mitschwingt, wie wir ihn lieben:
In der Antwort an den Ingenieur hieß es, dass die Erzeugung faktisch falscher Inhalte [durch die KI] innerhalb einer Sitzung [mit der KI] ein häufig gemeldetes Problem sei, das [von Google] nicht als technische Sicherheitslücke gewertet werde.
Auch Einen entdeckt? So kann er in die Hall of Fame aufgenommen werden: KI-Unfall!
jott
[Zitationshilfe] : „KI-Unfall (651 bis 660)“, unter jottBlog : <https://jottblog.langkau.name/2026/02/26/ki-unfall-651-bis-660/> : aufgerufen am 00.00.20xx.
•#–#–#–#–#•