Wegen eines großen Anstiegs an KI-generierten Artikeln beschränkt Arxiv die Art der akzeptierten Einreichungen im Bereich Informatik.
Anmerkung: Ahhh, endlich rappelt es mal wieder richtig im Karton! Der Artikel schließt dann noch mit einem Goodie ab, welches uns stutzen ließ – sollten da kreative Jungforscher etwas zu sehr auf die Tube gedrückt haben?
In Vorveröffentlichungen mehrerer Universitäten wurde im Juli 2025 festgestellt, dass diese nur für Maschinen lesbare Prompts enthielten, die eine positive Bewertung durch KIs bewirken sollten.
KI-Forscher statten Saugroboter mit großen Sprachmodellen aus – und die bekommen die Krise
Große Sprachmodelle sind noch nicht bereit für den Einsatz in Robotern. Das jedenfalls ist die Schlussfolgerung eines Forschungsteams, das einen Saugroboter mit KI-Tools ausstattete – und dessen extravagantes Scheitern dokumentierte.
Anmerkung: Doch, wir wollen zugeben, dass wir genau wegen *solcher* Meldungen t3n mögen! Fazit: Echt-Welt-Probleme sind nicht in den Griff zu bekommen (und, #Re-vorab: das wird auch noch lange so bleiben; die Autonomie ist ein Tech-Märchen, siehe Level 4 beim autonomen Fahren…). Sind wir ausreichend ausdauernd, dann können wir uns bis zur originalen Veröffentlichung durchklicken und werden am Ende jener, mit den erheiternden Dialogen und dem den kritischen Akku-Stand ausgelieferten Roboter belohnt.
Und wir fühlen uns daran erinnert, wie wir damals (an der teuren Schule) darum bemüht waren, einen binokularen Roboter beizubringen, wie er in einer ihm unbekannten Umgebung, den Weg zurück finden möge, was ihm auch nicht immer gelang – vor ≈35a.
Satya Nadella und Sam Altman warnen: Mangelnde Stromversorgung bedroht KI-Ausbau
Von wegen Chipknappheit: Laut der CEOs von OpenAI und Microsoft fehle es aktuell nicht an GPUs, stattdessen behindere vielmehr eine mangelnde Stromversorgung den Ausbau der KI-Infrastruktur.
Anmerkung: Irgendwas is‘ immer. Noch nicht einmal ehemals stillgelegte Atomkraftwerke wuppen es und die US-amerikanische Bevölkerung muss bereits jetzt schon die Verteuerung der Strompreise hinnehmen…
Im neuen Pumuckl-Film klingt der Kobold fast wie früher – dank Künstlicher Intelligenz. Während bei Fans Nostalgie aufkommt, sind Synchronsprecher berunruhigt. Steht die Branche vor einem Wandel?
Eine umfassende Studie der University of Maryland zeigt, dass etwa neun Prozent aller neu veröffentlichten amerikanischen Zeitungsartikel teilweise oder vollständig von künstlicher Intelligenz generiert werden, meist ohne Kennzeichnung für die Lesenden.
Wegen KI: Jungen könnten laut Studie verlernen, Grenzen zu respektieren
Jugendliche fühlen sich von Chatbots oft besser verstanden als von Freund:innen oder Familie. Besonders auf die Entwicklung von Jungen könnte sich das allerdings negativ auswirken, so eine neue Studie.
Künstliche Intelligenz in Unternehmen : KI spart kaum Arbeitszeit
Sie sollte die Arbeitswelt revolutionieren. Doch mehrere Studien belegen nun, dass der Einsatz von KI keine Effizienzgewinne in Unternehmen bringt.
Anmerkung: Wir wissen schon, wo KI was kann. Und da, wo sie was kann, da kann sie was. Aber die Marketing-Schleudern haben Glauben gemacht, dass sie Alles überall kann und das ist und war eine Lüge, der hier und da jemand aufgesessen ist. Nun: sunken costs.
[Zitationshilfe] : „KI-Unfall (341 bis 350)“, unter jottBlog : <https://jottblog.langkau.name/2025/11/13/ki-unfall-341-bis-350/> : aufgerufen am 00.00.20xx.
Sprachmodelle können laut Anthropic ihre eigenen internen Zustände wahrnehmen
Eine Anthropic-Studie zeigt: Claude und andere Sprachmodelle entwickeln eine Art Selbstwahrnehmung ihrer internen Zustände – aber die Fähigkeit ist noch sehr unzuverlässig.
Anmerkung: So, so, eine „Art Selbstwahrnehmung“. Was selbstverständlich Blödsinn ist, aber man möge mal frohen Mutes weiterforschen, um dann festzustellen, wie es sich mit Zufällen und Dergleichen mehr verhält und uns auf dem Laufenden halten. Und uns munter mit weiteren Belangen, die homo sapiens an KIs nicht versteht, unterhalten.
Staatsminister für Kultur und Medien Wolfram Weimer hat den „Weimatar“ vorgestellt – den ersten Avatar eines deutschen Regierungsmitglieds. Mit ihm wirbt der Staatsminister für eine faire KI, die Kreativität schützt und die demokratische Öffentlichkeit stärkt. In einem ersten mehrsprachigen Video positioniert sich der Avatar zu aktuellen Kultur- und Medienthemen.
Anmerkung: Herr Weimer, Sie hätten den Aufwand nicht treiben müssen, Sie wären auf Anfrage einfach so in den jottBlog gekommen! Vielleicht irgendwie unter POP-Splitter, das wäre bestimmt kein Problem gewesen, das hätten wir hinbekommen. Nun gut, jetzt ist es halt ein KI-Unfall geworden… Wollen wir hoffen, dass Sie es auch in der Sprache, die Herr Altman oder Herr Zuckerberg gut verstehen, anbieten, dann funktioniert das mit der „fairen KI“ sicherlich, ganz bestimmt!
KI und die Halluzinationen: Warum sind so viele Antworten falsch?
Falsche Informationen, unstimmige Zusammenhänge und sogar ausgedachte Quellen: Das weiterhin ungelöste Problem der KI-Modelle.
Anmerkung: Da liefert uns heise doch gleich drei Unfälle im Teaser. Und bringt es im Artikel auf den Punkt:
Die Gründe hierfür sind unterschiedlich, gemein haben sie, dass es bisher keine Lösung für sie gibt.
…was uns nicht dazu verleiten sollte, den im heise-Artikel mundgerecht gemachten Zustandsbericht der Europäischen Rundfunkunion (EBU), nicht genauer unter die Lupe zu nehmen: <https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf>
KI-Chatbots und psychische Belastung: OpenAI nennt erstmals Zahlen
Dass die intensive Nutzung von KI-Bots für psychisch labile Menschen negative Folgen haben kann, wird schon seit Monaten diskutiert. Aber wie viele ChatGPT-Nutzer:innen sind tatsächlich gefährdet? Erstmals nennt das KI-Startup konkrete Zahlen.
Anmerkung: Wir erlauben uns, Herrn Nagata, Professor aus San Francisco, etwas Unterstützung zukommen zu lassen
Auch wenn 0,07 Prozent nach einem geringen Prozentsatz klingen, kann das bei einer Nutzungszahl in Hunderten Millionen tatsächlich eine ganze Menge Menschen sein.
…auch wenn es „nur“ 100.000.000 wären, hätten wir es in der Tat mit „einer ganzen Menge Menschen“ zu tun: 70.000! OpenAI schätzt
dass 0,15 Prozent der Nutzer:innen Gespräche mit ChatGPT führen, die „eindeutige Anzeichen für potenzielle Selbstmordpläne oder -absichten“ enthalten.
…was bei 100.000.000 Benutzern eben auch knackige 150.000 wären.
Ach ja, Herrn Altman (dem Glaubenden CEO von OpenAI) gibt zum Besten
dass ChatGPT inzwischen rund 800 Millionen aktive User:innen pro Woche erreicht.
Wir wollen zum Besten geben: die Dudes betrachten das als einen am natürlichen Standort von homo sapiens durchgeführte Versuch, einen Freilandversuch.
Studie: Immer mehr Jugendliche fürchten wegen KI um ihre berufliche Zukunft
Junge Menschen sorgen sich um ihre berufliche Zukunft, weil KI immer weiter auf dem Vormarsch ist. Das geht aus einer aktuellen Umfrage hervor. Im Vergleich zum Vorjahr ist die Anzahl derer, die ihre Berufspläne durch Chatbots und Co. bedroht sehen, deutlich gestiegen. Dennoch gibt es auch positive Ausblicke.
Elon Musks neue KI-Enzyklopädie Grokipedia will Wikipedia ablösen und „von Propaganda befreien“. Doch schon der erste Blick zeigt: Die Plattform verzerrt sensibel-politische Themen systematisch und liefert voreingenommenen KI-Slop.
Anmerkung: Der decoder nimmt sich einen besonderen Eintrag in der Grokipedia zur Brust, den zur AfD und erkennt eine gezielte „sprachliche Entschärfung“:
Anstelle der klaren Begriffe „rechtsextrem“ oder „völkisch-national“, wie sie etwa der Verfassungsschutz verwendet, spricht Grokipedia lieber von „politisch motivierten Einstufungen“ und „medialen Verzerrungen“. Dadurch wird das Narrativ der „verfolgten Opposition“ gestärkt.
Tja, der Elon eben, war doch klar, wie der den Hasen rennen läßt…
[Und hier auch ein trauriger Artikel zu dem Thema: taz, Kommentar von Johannes Drosdowski, 30.10.2025
Angriff auf die Schwarmintelligenz
Elon Musks Unternehmen xAI hat eine Konkurrenz-Plattform zur Wikipedia gestartet. Aber welchen Mehrwert bringt eine KI, die keine Wahrheit kennt, nur Wahrscheinlichkeiten und Ideologie?
[Zitationshilfe] : „KI-Unfall (331 bis 340)“, unter jottBlog : <https://jottblog.langkau.name/2025/11/09/ki-unfall-331-bis-340/> : aufgerufen am 00.00.20xx.
Amazon streicht rund 14.000 Arbeitsplätze in der Verwaltung. Das Unternehmen begründet den Schritt unter anderem mit dem Vormarsch der Künstlichen Intelligenz.
Ein Experiment zeigt, dass KI-Modelle wie Menschen zu irrationalem Verhalten neigen, wenn sie Glücksspiel ausgesetzt sind.
Anmerkung: Hier haben wir es mal wieder mit einem Unfall zu tun, der eher ein Unfall für die KI ist. Liebe Leute, lasst das Anthropomorphisieren (!), bitte! Diese Wahrscheinlichkeitsberechnungsmopeds neigen zu nichts, schon gar nicht zu irrationalem Verhalten. Die Dinger haben *kein* Verhalten!
Die Studie fand heraus, dass die KI-Modelle mit der Zeit Anzeichen von kognitiven Dissonanzen zeigten, wie sie typisch für Menschen mit Spielsucht sind.
KI haben keine „Kognition“ und schon gar keine „Dissonanzen“ der Art.
Außerdem glaubten die KI-Modelle, dass ein Gewinn wahrscheinlicher sei, nachdem sie mehrere Male verloren hatten.
KIs glauben nix (nur Herr Altmann, CEO von OpenAI kann *glauben* – also, was er will)!
Die Wissenschaftler glauben, dass die KIs damit menschliche Verhaltensweisen verinnerlicht hätten, anstatt sie nur zu imitieren.
Wir werden *nicht* versuchen, an die Originalveröffentlichung zu kommen – nachher stimmt das noch, dass die „glauben“, was sie denken. Und: KIs können nicht verinnerlichen.
Mann, Mann, Mann… diese Wahrscheinlichkeitsmaschinen kommen einfach mit dem Zufall nicht klar und halluzinieren vor sich hin, wie sie das immer tun, wenn sie nicht exakt sein können: irgendeine Antwort, statt keine Antwort, das ist alles.
In den USA geht eine Gruppe von Polizisten unerwartet auf einen Schüler los. Grund war eine Waffenwarnung. Doch die Polizei findet nur harmlose Doritos.
ChatGPTs Memory-Funktion könnte zur Werbefalle werden
Rund 20 Prozent der OpenAI-Belegschaft stammen mittlerweile von Meta – und das spiegelt sich zunehmend in der Unternehmensstrategie wider. An vorderster Front: Fidji Simo, CEO of Applications, die zuvor mehr als zehn Jahre bei Facebook arbeitete.
Anmerkung: Wir wollen uns nicht für das in diesem Artikel ausgewalzte Personalgeschachere zwischen Meta und OpenAI interessieren – wohl aber für die Ausführungen bezüglich der Unterbringung von Werbung in den Ausgaben der Maschine der Wahrscheinlichkeiten, die von manchen auch liebevoll KI genannt wird. Wir wollen Herrn Altman (der dem Glauben verfallenen CEO von OpenAI) dankbar für die transparente Kommunikation sein, wenn er sagt, dass Werbung
derzeit nicht geplant
sei, was aber eben nicht heißt, dass das morgen nicht ganz anders aussehen kann – ohne Vorankündigung, versteht sich. Wenn die Tool-Abhängigkeit (hier: ChatGPT) groß genug ist, dass Benutzer nicht abspringen können, dann wird das kommen (#Re-vorab, siehe wie auch geschehen bei *nicht* kostenlosen Streamingdiensten, oder Social Media)!
Hier in aller Deutlichkeit: sie, die Werbung, wird kommen, was immer Herr Altman da glaubt (er glaubt oft in den von ihm gegebenen Interviews), so wie er noch im März 2024 zum Besten gab
Man könne sich leicht eine dystopische Zukunft vorstellen, in der ChatGPT einem sagt, dass man dieses oder jenes Produkt kaufen oder dorthin in Urlaub fahren soll.
Also, dass KIs uns irgendwo hinschicken (siehe: 269. KI-Unfall : „KI schickt Touristen an Orte, die es nicht gibt“), das ist ja nun schon kalter Kaffee, nix da „dystopisch“! Nun gut, im Falle von Werbung wäre das nicht zielführend, aber OpenAI wird das schon hinbekommen, bestimmt. Und zu guter Letzt: was stimmt mit Herrn Altman eigentlich nicht? Wieso hält er eine Produktempfehlung durch sein Moped für dystopisch, nicht aber eine warme Einstellung des ChatBots, die intime Gespräche ermöglicht? Was? Wie – er glaubt das alles nur? Er, der sagt (siehe: 270. KI-Unfall):
Am Ende tun wir alle das, was uns ein KI-Assistent sagt
…aber vielleicht glaubt er das ja *auch* nur und wir verstehen ihn völlig falsch.
Und – ups, fast vergessen, in der Überschrift, die „Memory-Funktion“, schöne Sache, das! Besonders für die Homeland Security (siehe auf „323. KI-Unfall“, hier auf dieser Seite)!
Lasst ihr ChatGPT auch eure Liebesbriefe schreiben?
Während generative KI immer mehr in unseren Alltag einsickert, drohen wir den Kern dessen zu verlieren, was uns sein lässt. Große Sprachmodelle zu nutzen, mag praktisch sein, doch sollten wir darüber nicht vergessen, dass wir Menschen sind.
Anmerkung: Wir wollen, nachdem wir den Text gelesen haben, uns Frau Carla Siepmanns abschließenden Aufruf Mensch zu sein (und zu bleiben) anschließen.
Wer, wie der der Autor dieser Zeilen, dazu tendiert, einen großen Teil der Informationen, die entgegen genommen werden wollen, auf totem Baum wahrzunehmen, der wird die Nennung des nachfolgenden Werkes wohlwollend zu Kenntnis nehmen
Der wirklich brauchbare Liebesbriefsteller, Hans Teichmann, Rudolph’sche Verlagsbuchhandlung, 6. Auflage, 1941
Anleitung und Ratgeber zum Abfassen wirksamer, zeitgemäßer Liebesbriefe vom Beginn der Bekanntschaft bis zur glücklichen Hochzeit
Herrn Teichmanns Arbeit kann an dieser Stelle nicht ausreichend gewürdigt werden. Am Ende des Buches wird sich sogar auf den Abschiedsbrief verstanden (selbstverständlich nimmt diese Gattung nur eine kleinen Teil ein, ansonsten hätte es ja auch „Liebes- und Abschiedsbriefsteller“ heißen müssen…) und das dort Erlernte soll dann auch ausreichend für die Erstellung eines eigenen Abschiedsbrief sein und geschwind eingesetzt werden:
Ehemals geliebtes Internetz!
Wir haben Dich geliebt, wir haben Dich sogar ein wenig mit gebaut! Wir haben Dir zu mehr oder weniger brauchbarem Content verholfen - oder Deinen versucht zu verbessern. Wir haben in Newsgroups gestritten und uns unter dem strengen Blicken der Foren-Admins zusammengerissen, wenn unsere ungestüme Heißblütigket uns zu Dummheiten hinreißen wollte. Wir haben unser Wissen kostenlos zur Verfügung gestellt und mit dem von Dir kostenlos zur Verfügung Gestellten verbessert und repariert.
Wir konnten mit nicht formatierbaren Strombriefen durch Dich trotzdem kommunizieren und dieses mit geringsten Mengen von Informationen pro Zeiteinheit. Wir haben gerne gewartet; man muß auf Briefe immer warten, man muss es nicht *sehen*, wenn das Gegenüber schreibt, denn es gibt eine Rechtzeit.
Wir wußten am Anfang unserer Liebe noch nicht einmal, dass es Käufliches gäbe. Du warst nicht Käuflich, nichts war käuflich in Dir und Werbung für etwas in der realen Welt Käufliches mußten wir *suchen*. Du warst frei von Werbung, Du warst frisch und freundlich und nun hast Du die realen Orte, an denen einmal gekauft werden konnte und die Existenz derer, die dort arbeiteten, zerstört.
Wir haben geglaubt, dass Du uns Freiheit und Demokratie schenktest, für immer und dass Du nichts Böses tätest. Aber wir haben uns getäuscht, denn Du konntest den dunklen Verlockungen nicht widerstehen und überschüttest gerade diejenigen unserer Art mit Hass, Lüge und Täuschung, die sich nicht wehren können - oder wollen.
Nun sehen wir, dass wir uns in Dir und mit Dir getäuscht haben. Du bist voller Unwahrheiten und künstlichem Tand. Böse Mächte haben Dir Dein Licht genommen. Wir sind erschüttert und spüren, dass unsere Liebe und Begeisterung für Dich erloschen ist. Und es scheint uns nicht möglich, in solcher Unwägbarkeit zu leben; es gibt kein Richtiges im Falschen; wir wollen Dich nicht täuschen und Künstliches vorhalten, was der Wahrheit nicht entspricht.
Es gab eine Zeit - unsere gemeinsame Zeit, da haben Dir Maschinen zum Leben verholfen, aber nun bist Du diese Maschinen und wir haben Dich und viele unserer Art an sie verloren.
Präzedenzfall: US-Behörde identifiziert Darknet-Admin mit ChatGPT-Daten
Der erste bekannt gewordene Beschlagnahmebeschluss für Nutzerdaten gegen OpenAI offenbart: US-Behörden können Prompt-Eingaben zur Strafverfolgung anfordern.
Anmerkung: Es ist Eines, Kriminelle Dingfest zu machen, aber ein Anderes, wie von einem Strafrechtler, Herrn Jens Ferner am Ende das Artikels klargestellt wird, dass
das gesamte Verhalten ausgewertet und mittels KI ein Abbild der Persönlichkeit erstellt werden [könne]
und Abfragen der KI-Systeme
Möglichkeiten auf dem Niveau von Profiling und DNA-Spuren
schüfen – wohlgemerkt: bei allen Benutzern, auch den nicht-Bösen. Und wer jetzt denkt: ‚Ja und?!?‘, sei hieran erinnert
Ich habe nur gezeigt, dass es die Bombe gibt
Psychologe Michal Kosinski weiss, wie man Menschen anhand ihres Facebook-Verhaltens analysiert.
…der gute alte Ocean-Test, der dann im weiteren Verlauf der Geschichte eine nicht unbedeutende Rolle spielte.
Wenn (zum Beispiel) OpenAI nun dazu übergeht – und das werden sie tun, da sie Geld verdienen *müssen* – Werbung auszuspielen, dann werden die schon Wissen, wie sie ordentliche Profile zusammenzimmern. Zur Not wirbt man halt ein paar Freggels von der Homeland Security ab…
Die Länder haben sich auf Eckpunkte für einen Staatsvertrag zu digitalen Medien geeinigt. Die Nutzung geschützter Werke für KI soll vergütungspflichtig werden.
Anmerkung: Es bleibt hier unter KI-Unfall gelistet! Man merke: KI wird seit *Jahren* trainiert, seit Jahren. Mit urheberrechtlich geschütztem Material, Mit raubkopierten (!, denn digitale Bücher) Informationen. Mit, über die Jahre liebevoll gepflegten Geschichten und Geschichtchen (zum Beispiel Wikipedia, Wikisource, Wikidata), mit sorgsam zusammengetragenen Diskussionen (wie unter reddit). Musiken, Filme, Alles. Und jetzt, mit Inbrunst und Stolz geschwellter Brust
Regeln nicht von Big Tech diktieren lassen
Sehen wir nicht, wie gerade Herr Altmann (OpenAI), Herr Zuckerberg (Meta) oder auch Herr Musk (X-Gedöns), nachdem sie von den Sekretären ein Memo überreicht bekamen, verstört zusammenzucken, die Bürotür hinter sich verschließen, um erst einmal einen Beruhigungstee zu trinken?
Sora 2: Sogar KI-Experten scheitern an täuschend echten Videos
Mit dem neuen KI-Generator Sora 2 ist fast alles möglich. Während Nutzer:innen das Video-Tool genau dafür lieben, wird es für Erkennungssoftware allerdings immer schwieriger, Deepfakes zu identifizieren.
[Zitationshilfe] : „KI-Unfall (321 bis 330)“, unter jottBlog : <https://jottblog.langkau.name/2025/11/08/ki-unfall-321-bis-330/> : aufgerufen am 00.00.20xx.
Experten entdecken von KI geschriebene Ratgeber auf Amazon
In einer Unterkategorie auf Amazon sind nicht nur ein Großteil der Bücher, sondern auch Autoren und Rezensenten „wahrscheinlich“ KI-generiert.
Anmerkung: Wenn wir Rat geben dürften? 1. Bücher prinzipiell nicht bei Amazon kaufen. 2. Bücher beim netten Buchhändler im Dörfle kaufen. 3. Keine Ratgeber kaufen.
Brainrot bei KI: Wie Chatbots durch sinnlose Daten verdummen und sich davon nicht mehr erholen
Wer häufig im Netz unterwegs ist, kann vom sogenannten Brainrot befallen werden. Das betrifft aber offenbar nicht nur Menschen, wie Forscher:innen herausgefunden haben. Auch KI-Tools können durch Brainrot verdummen.
Anmerkung: Ach, was gäbe es da nicht alles zu Schreiben… Sind die KIs (*denen* hier offensichtlich ein Unfall widerfährt) nicht ständig und ausschließlich im Intertnetz unterwegs? Und warum „können“? Sie tun es doch! Wer es bis in den t3n-Artikel schafft, dem könnte eine Bildunterschrift ins Auge fallen
KI kann an Brainrot „erkranken“
…OK, die Anführungszeichen stimmen uns milde. Aber nur ein wenig, denn: man möge solche Biologismen (Analogismen) SEIN LASSEN, da zu vermuten steht, das jemand, der diese in die Welt setzt, IN DIE HÖLLE kommt (wir bitten diesen, der Kindergarten-Religiosität entnommenen Ansatz an dieser Stelle zu entschuldugen, aber wir bekommen es auf anderen Wegen nicht in die Köpfe)!
Wir wollen uns zur Räson und zur Sachdienlichkeit rufen. Man fand heraus, dass wenn man mit Quatsch trainiert, Blödsinn herauskommt. Die finden Alles, heraus, diese Forscher, Alles!
Wenn wir uns durch den Kümmerer t3n klicken, dann bekommen wir – Internetz-Legastheniker, die wir nun einmal sind – auch noch frei Haus die Gewissheit geliefert, die uns bereits seit geraumer Zeit bezüglich des eigenen mentalen Zustandes beschleicht
Es [brainrot] beschreibt im Grunde den geistigen Verfall, den wir durch zu viel Internetkonsum erleben.
Anmerkung: Vermutlich kriegen *wir* es mal wieder nicht so richtig gebacken: ein Hersteller warnt vor Sicherheitsrisiken bei seinem eigenem Produkt und schmeißt es trotzdem auf den Markt? – – – Äh, wie? Was? Freilandversuch? Ach so, ja dann…
KI-Müll in Gerichtseingaben ist eine Plage. Nun sind auch Entscheidungen zweier US-Gerichte aufgeflogen. Ein Praktikant sei schuld, sagt ein erwischter Richter.
Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft
Im Rahmen einer Studie interpretierten ChatGPT & Co. in 45 Prozent der Fälle Nachrichteninhalte fehlerhaft – unabhängig von Sprache, Region oder Plattform.
OpenAI will mit „Projekt Mercury“ Juniorbanker überflüssig machen
Mehr als 100 ehemalige Investmentbanker trainieren laut Bloomberg OpenAIs KI darauf, Finanzmodelle zu bauen und Routinearbeit im Investmentbanking zu übernehmen. Das geheime Projekt „Mercury“ soll die lästige Schreibtischarbeit von Nachwuchsbankern abschaffen.
Anmerkung: Schaut, Investmentbanker machen jetzt schäbige Klick-Jobs (die kamen nicht nach Afrika, konnte dort niemand erledigen). Und sie befreien uns von „lästiger“ Arbeit, wer könnte da dagegen sein, wenn
die zeitaufwendige Basisarbeit junger Analysten
ersetzt wird (neben bei: so fängt man halt an, als Stift (Auszubildender)…). Und: was haben die Ehemaligen wohl dafür bekommen?
[Zitationshilfe] : „KI-Unfall (311 bis 320)“, unter jottBlog : <https://jottblog.langkau.name/2025/10/29/ki-unfall-311-bis-320/> : aufgerufen am 00.00.20xx.
Immer mehr Beschäftigte nutzen private KI-Tools wie ChatGPT für ihre Arbeit. Allerdings stellen viele Unternehmen keine eigenen KI-Angebote bereit.
Anmerkung: Wir erinnern uns: damals, als es sich teils große Vereine zierten, Social Media betriebsintern einzuführen, Betriebsräte sich sperrten und die Unternehmenskommunikation frei drehte, da sagten sich die Arbeitenden: ‚Nun gut, dann mach‘ ich es eben woanders!‘ Und schwups, landeten die betriebsinternen Streitereien auf öffentlichen Plattformen. So ist homo sapiens halt. Der Fall hier verstört dennoch und es wäre wirklich interessant zu erfahren, warum so agiert wird, hat das vielleicht ebenfalls mit einer Eigenschaft homo sapiens zu tun, das Wollen des Komforts, koste es, was es wolle?
Davon unabhängig, sei an dieser Stelle eine weitere Frage erlaubt, ist Bitkom-Präsident Ralf Wintergerst ein KI-Lobbyist?
Die Unternehmen sollten KI-Wildwuchs vermeiden und der Entwicklung einer Schatten-KI vorbeugen. Dazu müssen sie klare Regeln für den KI-Einsatz aufstellen und ihren Beschäftigten KI-Technologien zur Verfügung stellen.
Audeering-Chefin zum AI Act: „Wir brauchen Vertrauen statt Überregulierung“
Audeering analysiert stimmliche Merkmale, um Rückschlüsse auf Emotionen und sogar psychische Zustände zu ziehen. Den AI Act hält das Unternehmen für zu streng.
Mit ChatGPT & Co. passende Geschenke finden: Wir haben es ausprobiert
Weihnachten rückt näher. Das bedeutet für viele von uns nicht zuletzt Einkaufsstress. Denn Familie und Freunde wollen schließlich beschenkt werden. Können ChatGPT und Co. dabei helfen, passende Geschenke aufzuspüren? Wir haben es versucht.
Mit OpenAIs Sora wird die lange prognostizierte Deepfake-Dystopie Realität
Eine neue Analyse zeigt, wie einfach OpenAIs Videogenerator Sora 2 glaubhafte Falschinformationen erzeugt und damit gezielte Desinformationskampagnen ermöglicht.
OpenAI-Forscher feiern mathematischen KI-Durchbruch, der keiner war
Forscher von OpenAI feiern einen vermeintlichen Mathematik-Durchbruch. Nach deutlichen Korrekturen aus der Community, unter anderem von Deepmind-Chef Demis Hassabis, nehmen sie ihre Aussagen zurück.
Anmerkung: Wir erlauben uns den Forschern zu raten, sich nicht so oft mit den (ohnehin einer ungehemmten Hurra-Schreierei verdächtigen) Individuen aus der Marketingabteilung herumzutreiben.
Obwohl der Crash die Aufbläher der KI-Aktienblase nicht am härtesten treffen wird, muss die Bubble endlich platzen. Ein Kommentar. von Philipp Steevens.
Anmerkung: Ein Minus-Eintrag, kein KI-Unfall, aber mal wieder in Ruf aus den Tiefen des Abgrunds. Lasst uns bestaunen die (Seifen) Blase.
Das KI-Tool Reddit Answers gibt gefährliche medizinische Hinweise und die Moderatoren haben keine Möglichkeit, diese auszublenden.
Anmerkung: Heroin halt, wenn’s doch hilft?!? Und ganz neben bei: ausblenden kann man das schon, und zwar, in dem man die ganze Kiste einfach abschaltet und die Reddit-Community die Antwort geben läßt. Und die würde bestimmt nicht sowas raushauen:
Auf die Frage nach hohem Fieber bei Neugeborenen, empfahl die KI entweder direkt die Notaufnahme aufzusuchen oder Kurkuma, Kartoffeln oder eine heiße Dampfdusche zu verwenden.
KI-Suchmaschinen: Chatbots fressen Klicks und Quellen auf
Die Suche im Netz verschiebt sich zunehmend in Richtung Chatbots. Dabei könnte sich drastisch ändern, wie wir an Informationen gelangen – und wie viel am Ende von der Angebotsvielfalt im Netz übrig bleibt. Eine Studie hat das neue Phänomen nun untersucht.
Anmerkung: „Halt!“, treue jottBlog-Leser, „wendet Euch nicht gelangweilt ab, da wir Euch schon hier und da mit dieser Thematik die Zeit gestohlen haben!“. Man lese diesen netzpolitik-Artikel bitte vollständig und vertraue nicht auf die BI (biologische Intelligenz) des ohnehin viel zu häufig undeutlich denkenden Autors dieser Zeilen. Auch wenn dieser hier, die Perlen zitierend, verzweifelt versucht, verlorengegangenen Boden gut zu machen.
Wenn der Springer Verlag über die Partnerschaft mit OpenAi sagt, dass sie
das Nutzungserlebnis mit ChatGPT um aktuelle und verlässliche Inhalte zu einer Vielzahl von Themen bereichern
…wollen würde, wir Klick-und-Prompt-Schafe dann aber mit eben jener Folge konfrontiert werden:
Interessierte Nutzer:innen können sich dann vor allem bei Bild oder Welt weiter darüber informieren, wie die Merz-Regierung etwa mit Themen wie Migration umgeht.
…dann aber Prost-Mahlzeit liebe Liebende (und Liebhaber von sauerländischen Stadtbildern)!
Miami bekommt selbstfahrendes Polizeiauto mit Drohne
Im Süden Floridas testet die Polizei ein unbemanntes Polizeiauto, das mit zahlreichen Sensoren bestückt ist – und einer Drohne.
Anmerkung: Wir hören sie raunen: „Wie denn jetzt?!? Polizei- und Drohnengedöns in der jottBlog-Kategorie „KI-Unfall“, geht’s noch?“. Wir wollen ihnen zurufen: „Haltet ein! Wir haben es für euch auf uns genommen und in die tiefsten Internetzverbinderuntiefen geklickt: PolicingLab [siehe golem-Artikel] und dort gefunden wir haben: KI!“.
Ja, so isset eben. Der ebenfalls im 155. KI-Unfall zitierte (IMDb) Minority Report, soll uns ein wenig nachspüren lassen, wie sich, bei solcher Arbeitserleichterung, des Gesetzeshüters Brust hebt. Und wo wir uns gerade so cineastisch gerieren – also, da kann K.I.T.T. mal schön einpacken! Noch nicht ma‘ ’ne Drohne!
Bild: K.I.T.T. mit einer flugunfähigen und schrumpeligen Bio-Einheit.
[Zitationshilfe] : „KI-Unfall (301 bis 310)“, unter jottBlog : <https://jottblog.langkau.name/2025/10/28/ki-unfall-301-bis-310/> : aufgerufen am 00.00.20xx.
Logitech ist offen für die Idee, eine künstliche Intelligenz mit in den Vorstand des Unternehmens aufzunehmen.
Anmerkung: Gut, dass wir beim Lesen bis zum Ende des Artikels durchgehalten haben, denn auf das Folgende wären wir nicht von alleine gekommen
Alle (…) betonten, wie wichtig gute Trainingsdaten für die hauseigene KI seien. Die Verwendung falscher Daten könne sehr kostspielig sein.
Und der letzte Satz ist der entscheidende Satz, der, den die KI-Bros lesen ✱wollen✱:
Laut Bericht haben die meisten Führungsteams das Gefühl, bei der Einführung von KI in ihrem Unternehmen der Konkurrenz hinterherzuhinken.
[In eigener Sache: Man suche im jottBlog nach „Theopolis“, *dann*, also in dem Suchergebnis suche man mit Hilfe des Internetzumherguckers (Browser) nach „Theopolis“, dann kann man schön durch alle Nennungen springen! Viel Spaß dabei! Und bitte auch den 61ger lesen, den Urvater des Hashtags „#Dr-Theopolis“!]
Vom Assistenten zum Agenten: Microsofts KI Copilot soll lernen, selbstständig in Windows 11 zu arbeiten
Microsoft will die Interaktion mit dem PC grundlegend verändern. Ein erweiterter KI-Assistent soll künftig nicht mehr nur passiv helfen, sondern selbstständig handeln. Das steckt hinter dem ambitionierten Plan.
Anmerkung: Ahhhh, endlich kommt Bewegung in die Sache! Winzigweich schaltet sich ein und wir wissen ja, wenn Winzigweich Eines verlässlich hinbekommt, dann sind das Unfälle. Wollten wir nicht auf Windows 11 verzichten, hatten wir nicht schon bereits ein lauffähiges und ehegattinnentaugliches Linux zusammengefummelt? Egal, nun doch W11! Rechner anmachen und dann einfach weggehen, der macht dann alles. Bestimmt. Aber Moment:
Microsoft ist sich der potenziellen Sicherheitsrisiken bewusst und betont, dass die Funktion standardmäßig deaktiviert ist. Wird sie von den Nutzer:innen aktiviert, laufen die Aktionen in einer isolierten Umgebung, einem „contained environment“, das die Interaktionen vom restlichen System abschirmt.
Hat Winzigweich denn nur noch Hasenfüsse unter Brot und Wasser?!? Woher kennen die auf einmal Opt-In und das Wort „Sicherheitsrisiko“? Also doch besser Linux nehmen…
Spotify will „verantwortungsvolle“ KI-Werkzeuge entwickeln
Spotify will den Einsatz generativer KI bei der Musikproduktion mit Labels koordinieren. Künstler sollen die Wahl behalten.
Anmerkung: Das Einzige, dass wir in diesem Artikel wirklich verstehen, ist
Jederzeit sollen Künstler und Rechteinhaber die Möglichkeit haben, auf die Verwendung von KI-Tools und die Teilnahme an KI-Programmen zu verzichten.
Hammer, was denen da zugestanden wird! Ha-mer! Und man möge auch das Folgende im Buch der Musikgeschichte nicht nur zitieren, sondern im Fettdruck zitieren:
Die neuen Einkommensströme, die durch den Einsatz von KI entstehen, sollen fair verteilt werden, sodass auch Künstler davon profitieren.
Liebes spotify, Frage: (mit der Melodie von Dylans „Blowing in the Wind“, bitte!) „Wie fair sind die Trainingsläufe der KI, die Urheberrechte brechen, als gäb’s kein Morgen?“
Die Antwort, mein Freund, weiß ganz allein der Wind, die Antwort weiß ganz allein der Wind…
Bild: Auch Frau Dietrich wird die Antwort auf die Frage nach dem Standort der Blumen, einer meteorologischen Laune abringen müssen.
KI HACKEN : Wie sich künstliche Intelligenz manipulieren lässt
Software lässt sich manipulieren und hacken – und neuronale Netze bilden keine Ausnahme. Wir zeigen, wie und warum das funktioniert.
Anmerkung: Diese im Artikel von Herrn Doktor Elsner vorgelegte „Analyse“ sei all jenen empfohlen, die einen Blick in den Maschinenraum wagen wollen (hui – wir kommen sogar bis zum System-Prompt von ChatGPT-5)! Er endet etwas lakonisch, dennoch unsere Gewissheit nährend, dass es so schnell kein Ende von KI-Unfällen geben wird:
Mit genug Langeweile wird sich jedes Modell [KI] auf absehbare Zeit dazu bringen lassen, etwa Drogenrezepte in Kindergeschichten zu verpacken.
ChatGPT im US-Militär: Wobei sich ein General vom KI-Chatbot beraten lässt
ChatGPT wird von Millionen Menschen genutzt. Darunter befindet sich auch mindestens ein US-General, der die KI in militärischen Fragen zurate zieht. Welche Aufgaben er auf den Chatbot auslagert und welche Vorteile er sich davon verspricht.
Anmerkung: So, liebe Liebende, steht mal alle ganz bequem. Herr Major General William „Hank“ Taylor hat für ChatGPT sogar einen eigenen Spitznamen:
Das freiwillige Compliance-Protokoll, das das Internet zivilisierte, ist von uns gegangen. Es verabschiedet sich Henning Fries.
Anmerkung: Wir erlauben uns, Herrn Henning Fries‘ und seinen, den Nachruf abschliessenden Gedanken, zu zitieren:
robots.txt begann als improvisierte Geste des Vertrauens und wurde zum RFC-standardisierten System – nur um schließlich an seiner größten Schwäche zu scheitern: dem Glauben an Fairness in einer Welt, die längst auf maximale Datenextraktion programmiert war.
Der 1-Billionen-Dollar-Plan: Wie OpenAI seine gigantischen Pläne bezahlen will
OpenAI will über die nächsten Jahre enorme Kapazitäten aufbauen, um die eigene KI anzutreiben. Jetzt gibt es neue Details, wie das finanziert werden soll. Kritiker sprechen von einem hochriskanten Pan.
Anmerkung: Nun wäre die Frage, hat OpenAI, hat Her Altman (CEO) eine KI bemüht, um jene „gigantischen Pläne“ zu schmieden? Und: hat Herr Thiel – der er ja nun nicht der Antichrist sein will – endlich den Antichristen gefunden?
„Peter Thiel ist ein möglicher Kandidat für den Antichristen“
Während US-Präsident Trump im Rampenlicht steht, wirkt ein anderer im Schatten: US-Tech-Milliardär Peter Thiel verbindet Religion mit Macht. Seine theologischen Gedankenspiele könnten die Zukunft der Welt verändern.
Wer eine schöne Einordnung haben möchte, die ohne das Wort „Antichrist“ aus-, aber auf totem Holz daherkommt: Mühlhoff, „Künstliche Intelligenz und der neue Faschismus“, Reclam, 2025
OpenAI will ChatGPT wieder „einfühlsamer“ machen und erotische Gespräche ermöglichen
OpenAI will ChatGPT wieder einfühlsamer machen – aber dieses Mal mit eingebauten Leitplanken. Die Ankündigung von CEO Sam Altman markiert einen neuen Versuch, zwischen Nutzererwartungen und Sicherheitsanforderungen zu balancieren.
Anmerkung: Der KI-Unfall schlechthin:
Die emotionale Bindung zwischen ChatGPT und seinen Nutzern ist für OpenAI ein zweischneidiges Schwert. Die scheinbar empathische Art des Chatbots hat wesentlich zu seiner Popularität beigetragen – viele Nutzer fühlen sich verstanden.
Universität wollte KI-Schummler per KI-Tool überführen – mit gravierenden Folgen
KI-Detektoren können dabei helfen, Betrugsversuche im Studium zu erkennen. An einer australischen Universität führte das allerdings zu zahlreichen Fehlurteilen – und sorgte bei Studierenden für Frust.
[Zitationshilfe] : „KI-Unfall (291 bis 300)“, unter jottBlog : <https://jottblog.langkau.name/2025/10/25/ki-unfall-291-bis-300/> : aufgerufen am 00.00.20xx.
Anthropic-Mitgründer warnt: Wir züchten KI, die wir nicht verstehen
Anthropic-Mitgründer Jack Clark gibt Einblick in seine Sicht auf KI – zwischen technologischem Optimismus und „angemessener Furcht“.
Anmerkung: Ein Artikel, der wenig Einblicke gibt, dafür aber voller sprachlicher Stolperfallen ist – diese vielleicht einer holperigen Übersetzung geschuldet? (Man weiß es nicht.) Also:
✱✱✱ Nein, es werden keine KIs gezüchtet. Wir erlauben uns Wikipedia zu zitieren:
Als Zucht wird in der Biologie die kontrollierte Fortpflanzung mit dem Ziel der genetischen Umformung bezeichnet. Dabei sollen gewünschte Eigenschaften verstärkt und unerwünschte Eigenschaften durch entsprechende Zuchtauslese zum Verschwinden gebracht werden.
…und im Übrigen ist das bei KIs so eine Sache mit dem Verschwindenlassen von unerwünschten Eigenschaften, funzt nicht so wirklich.
✱✱✱ Ja, wir verstehen sie (die KIs) nicht (das Nicht-Verstehen allerdings ist kein Alleinstellungsmerkmal von homo sapiens, denn die KIs verstehen uns auch nicht).
Im Artikel selber geht’s dann auch ein wenig schwurbelig daher, es
entstehen Fähigkeiten [der KI] , die niemand gezielt entworfen hat
…so isset, wenn man mit gezielt raubkopierten und ungezielt mit nicht raubkopiertem Material eine Ansammlung von Zufälligkeiten schafft, die mit einer mehr oder weniger wahrscheinlichen Ausgabe die Illusion von Wahrheit und Realität zusammen fummelt.
Herr Clark zu guter Letzt
In diesem Spiel verliert man garantiert, wenn man glaubt, dass die Kreatur nicht real ist. Deine einzige Chance zu gewinnen besteht darin, sie als das zu sehen, was sie ist.
✱✱✱ es ist keine Kreatur
✱✱✱ „Deine“, also ich?!? OK, ich voll so: „Ich sehe, also gewinn‘ ich!“.
Aber im Großen und Ganzen glauben wir zu verstehen, was er meint…
[UPDATE und Epilog]
Es ist doch immer besser, Herrn Clarks Original (wir sehen dieses weiter Unten verlinkt) zu lesen. Der Autor des decoder-Artikels, Herr Bastian, hat da doch wohl etwas zu viel Druck auf die magische Eindampfmaschine gebracht. Ist es gar eine Übersetzung und Zusammenfassung, die mit einer KI herg – – – nein, nein, bestimmt nicht, obwohl, Herr Bastian hat da bestimmt (!) einen kostenlosen Account!
Wir lassen den 290. jottBlog-KI-Unfall (nach der Strich und nach der Faden zusammenhalluziniert, mit etwas, dessen Sitz zwischen den Ohren vermutet wird und zusammengefummelt mit unserer Finger Arbeit) so, wie er ist: ein Beleg für eine veraltete Vorgehensweise und ein (doppeltes) Mahnmal.
Walter Moers : „Mit so einer Kreatur am Hals würde es sicher nicht einfacher sein, es im wirklichen Leben zu etwas zu bringen.“ [Die 13 1/2 Leben des Käpt’n Blaubär, Frankfurt a. M.: Eichborn 1999, S. 177]. …da kann man mal sehen, Herr Moers gibt einen guten Hinweis, wie wir finden wollen!
Kommentar: Wie KI die Sprache von Schülern verändert und Diskussionen verflacht
Beim Begutachten der Schülerbeiträge des diesjährigen n-report-Wettbewerbs merkte unsere Redakteurin auf. Wendungen glichen sich frappant – und dem KI-Sprech.
Anmerkung: Dieser lesenswerte (Lehrer-) Kommentar zeigt uns, dass die KI-Unfälle bereits im Alltag intensiv gelebt werden.
CHATGPT, BITTE MOGEL FÜR MICH: Wie KI Betrug fördert
Sobald Menschen Aufgaben delegieren, sinkt die moralische Hemmschwelle. Und digitale Assistenten? Die machen meist ohne Zögern mit.
Anmerkung: Das Nachfolgende glauben wir, nur schwach widerwillig:
Da künstliche Intelligenz kein eigenes moralisches Empfinden besitze und Menschen sich durch Delegation von Aufgaben entlastet fühlten, könnte sich unehrliches Verhalten in Zukunft stärker verbreiten.
Wollen wir uns die Forschungsarbeit sparen, dann mögen wir uns auf die, vom international völlig unbekanntem Höhenpsychologen Dr. Prügelpeitsch formulierten und uns zum freien Gebrauch zur Verfügung gestellten Faustformel besinnen: homo sapiens ist ein Komfort-Tierchen und wenn im Großen und Ganzen erst einmal das Fressen ansteht, dann kommt die Moral eher ins Hintertreffen – wenn uns, der Vereinfachung Halber, eine gewisse Überspitzung des Problemkomplexes an dieser Stelle erlaubt ist…
KI soll‘s richten: Meta fordert fünffache Arbeitsleistung von Metaverse-Mitarbeitern
Geht es nach Metas Metaverse-Lenker Vishal Shah sollen Mitarbeiter:innen der virtuellen Plattform ihre Arbeitsleistung künftig verfünffachen. Wie das gelingen soll? Shah sieht die Lösung in Mark Zuckerbergs neuem großen Steckenpferd: der KI.
Anmerkung: Zur Erinnerung (oder Erklärung): bei dem Metaverse (der Name war inspiriert durch den Roman Snow Crash und würde nicht nur Meta „gehören“) würden wir alle – wenn’s denn nach so Hanseln, wie Herr Zuckerberg ginge – mit einem digitalen Abbild, einem Avatar unserer Selbst in dieser künstlichen, digitalen Welt herumlungern und irgendwas machen. Zur Hochzeit dieser Idee wurde „Meta“ von Zuckerberg gegründet (darunter befindlich: Facebook, etc. – vielleicht nennt er’s jetzt in „Artia um, wer weiß (-; ). Also, dann sollten auch seine eigenen Arbeiter dort – – – agieren, so wollen wir es mal nennen, oder arbeiten eben. Nur, hat niemanden so richtig interessiert! (Erinnern wir uns noch an „Second Life“ von den Linden Labs?!? Jepp, das war (ist) auch so was!) Jetzt versucht man offensichtlich Pest und Cholera im Doppelpack nach Vorne bringen zu wollen. Wir wollen behaupten: dat ma‘ wird nix!
Statt Freunde und Familie: Fast vier von zehn Menschen in Deutschland fragen lieber KI um Rat
Sprachassistenten antworten wertfrei und geduldig – und das rund um die Uhr. Knapp ein Fünftel der Deutschen könnte sich deshalb sogar vorstellen, eine freundschaftliche Beziehung zu einem KI-Bot aufzubauen.
Anmerkung: Ist das dann wirklich ein KI-Unfall, wenn es vorher schlicht ein soziophobes Verhalten war? Und dennoch: das wird Konsequenzen haben…
Intime Konversationen mit KI-Chatbots waren für jeden einsehbar
Romantische Nachrichten, Fotos, KI-Bilder: Jeder, der einen Link hatte, konnte sehen, was Nutzer so alles mit den virtuellen Lebensgefährten austauschen.
Sicherheitslücken: So einfach lassen sich KI-Modelle mit 250 Dokumenten kapern
Was, wenn der Aufwand, eine KI zu sabotieren, nicht mit ihrer Größe wächst? Eine neue Entdeckung stellt bisherige Annahmen zur KI-Sicherheit auf den Kopf und zeigt eine fundamentale, bisher übersehene Schwachstelle auf.
Anmerkung: Was, wenn es schon geschehen ist, man nur den Trigger, die
Sozialhilfeanträge prüfen per KI? Warum das in Amsterdam schief ging
Amsterdam wollte Sozialhilfeanträge von KI prüfen lassen. Der Plan ging nicht auf. Das Projekt zeigt, wie schwierig es ist, faire Algorithmen zu entwickeln.
Anmerkung: Da wir mit ausreichend Phantasie durch die Welt stolzieren, geben wir uns mit der Überschrift und dem Teaser zufrieden und es ist uns gänzlich Wumpe, warum t3n gerade dieses Thema nur dem Bezahlen wollenden Publikum zu zeigen gewillt ist.
[Zitationshilfe] : „KI-Unfall (281 bis 290)“, unter jottBlog : <https://jottblog.langkau.name/2025/10/19/ki-unfall-281-bis-290/> : aufgerufen am 00.00.20xx.
Warum KIs ostdeutsche Menschen generell niedriger bewerten
Eine Studie zeigt, dass ChatGPT & Co. auch strukturelle Einschätzungsmuster übernehmen und Vorurteile reproduzieren. Das reicht bis zur Körpertemperatur.
Sicherheitslücke in Gemini entdeckt: Warum Google die Verantwortung bei den KI-Nutzern sieht
Sicherheitsforscher:innen haben eine Schwachstelle in Googles KI entdeckt. Gemini kann ausgetrickst und dazu gebracht werden, sensible Daten von Nutzer:innen an Cyberkriminelle weiterzuleiten. Dennoch plant Google vorerst nicht, gegen das Problem vorzugehen.
278. t3n (Von MIT Technology Review Online), 09.10.2025
Sora 2: Zentrale Fragen, die OpenAI zur Video-App noch nicht beantwortet hat
Die neue KI-Video-App von OpenAI wird zum surrealen Experiment. Die Frage ist jetzt, wie es damit weitergeht.
Anmerkung: Na, endlich schreibt’s mal jemand (außerhalb des jottBlogs, wir nennen es hier ja „Freilandversuch“): surreales Experiment! Wir wollen nicht vergessen (falls dieser sehr interessante Artikel, der deutlich über dem sonstigen t3n-Niveaus liegt, warum nur?!?): ein surreales Experiment auf realen Urheberrechtsverletzungen! Sollte es OpenAI gelingen auch nur einen Hauch einer Einnahme (die dann noch lange kein Gewinn ist!) vorweisen können, werden dann die bislang Bestohlenen in irgendeiner Form daran partizipieren? Oder sind dann erst einmal die ausgezehrten Shareholder dran? Na, was meinen wir?!?
BANK OF ENGLAND SCHLÄGT ALARM : Platzt jetzt die KI-Blase?
Die Londoner Zentralbank warnt vor einer gefährlichen Überhitzung am Aktienmarkt. Überzogene Bewertungen von KI-Firmen könnten einen Crash auslösen.
Anmerkung: Nun gut, auf der Insel wimmelt es ja nun sehr an Hasenfüssen, aber vielleicht ist diese Angst vor dem Platzen mehr als nur ein #Re-vorab? Und überhaupt: „überzogene Bewertung“ – hat man denn die dot-com-Blase wirklich schon restlos vergessen? Kann doch nicht sein…
Neues Gemini-Modell steuert Browser eigenständig : Welche Aufgaben euch die KI künftig abnehmen soll
Google Gemini soll künftig selbstständig Browser bedienen können. Wie das aussieht, zeigt der Tech-Konzern schon jetzt in ersten Demovideos. Allerdings deuten diese auch darauf hin, dass bis zu einer finalen Version noch einige Schritte zu gehen sind.
Mal abgesehen davon, dass wir uns nach dem Lesen des Artikels sicher sind, dass uns eine KI das Aufgeführte nicht abnehmen wird, wollen wir unser Augenmerk auf etwas Anderes lenken. Nämlich auf die Tatsache, dass die KI befähigt wird, in die physikalische (somit: nicht in die virtuelle) Realität einzugreifen. Jetzt alle so: „Hey, was soll’s?!? Wir setzen den Kollegen vor den Fernseher, drücken ihm die Fernbedienung in die Hand und dann kann er mal eine ordentliche Sendung für uns finden!“. Naja, da haben VW, BMW, Mercedes und Co. es gerade gebacken bekommen, die Kisten einigermaßen autonom rumkurven zu lassen, da baut Einer einen Roboter mit eben diesen Fähigkeiten und den kann man dann einfach auf den Fahrersitz setzen. Fettich! Wie? Bandbreite, Latenz und so?!? 6G kommt!
Google erweitert den KI-Modus in der Suche auf über 35 neue Sprachen und mehr als 40 weitere Länder und Regionen, darunter viele in Europa inklusive Deutschland.
Anmerkung: Wer da jetzt „Hurra!“ ruft, dem wollen wir mit erhobenem Zeigefinger mahnen, eben dieses Zitat aus dem Artikel zur Kenntnis zu nehmen:
Google entwickelt sich zunehmend zum Omni-Publisher, der Nutzer in seinem eigenen Angebot hält. Links werden immer seltener angeklickt, und Publisher geraten unter Druck, weil ihre Reichweiten und Werbeeinnahmen weiter sinken.
…wohlgemerkt: Google bedient sich ausgiebig an diesem Content der ins Hintertreffen Geratenen und begeht hier und da fulminante Urheberrechtsverletzungen! Aber egal
Google sagt, was böse ist
Googles neuer Mutterkonzern Alphabet kehrt vom Motto „Don’t Be Evil“ ab. Wird Google nun böse? Nein, denn der Spruch wurde ohnehin schon immer falsch verstanden.
Das Model Context Protocol macht Sprachmodelle handlungsfähig. Das Webinar zeigt das Potenzial und die Risiken der Technik.
Anmerkung: Mal wieder ein Minus-Eintrag („-272.“), weil es nicht wirklich ein KI-Unfall ist, wir aber davon ausgehen wollen, dass die Webinar-Teilnehmer in Zukunft fleissige Lieferanten für unsere jottBlog-Kategorie werden!
Wir wollen denjenigen der jottBlog-Leser, die einem ordentlichen Beruf nachgehen und sich noch nicht komplett hochgeladen haben, die Möglichkeit geben, zu verstehen, was heise da genau anbietet. Tasten-Freggels sollen lernen, wie man den KI-Agenten über eine bestimmte Schnittstelle (hier: MPC) und die damit verbundene Möglichkeit (mit weiteren Diensten, Programmen, vielleicht auch mit anderen KIs zu interagieren) weiter aufbohren kann. Also, mein Agent kann dann auf einmal bei einem Online-Händler
200 Gramm Kartoffeln und ein Doppelzentner Mailänder Salami
bestellen. Der Agent hat meine Berechtigungen dazu (er agiert also an meiner Stelle; das hat dann durchaus juristische Implikationen, nur so am Rande, wird bestimmt im Webinar auch alles abgekaspert). heise eröffnet den Artikel mit folgendem Szenario
Stellen Sie sich vor, Sie beauftragen eine KI mit der Planung Ihres Traumurlaubs – und der Computer kümmert sich um alles: bucht das Hotel, organisiert die Anreise, reserviert den Tisch im Lieblingsrestaurant. Was heute noch nach Science-Fiction klingt, könnte schon bald Alltag sein.
…nein, möchten wir uns nicht vorstellen, aber wir wollen uns mit einem gewissen Schauer, der gerade unseren Rücken aufsucht, an Folgendes erinnern: KI-Unfall 269. t3n, 05.10.2025, „Gefährliche Halluzinationen: KI schickt Touristen an Orte, die es nicht gibt„ – OK, wir kommen von dem Ort, den es nicht gibt, zurück und sind hungrig. Das Lieblingsrestaurant hat den Besitzer gewechselt – und dieser die Küche, ist aber doppelt so teuer… im Hotelbett, also, das mit dem quietschenden Lattenrost, lesen wir noch ein wenig in unserem Science-Fiction-Büchlein, träumen von einem Ritt auf einer zusammengerollten Zeitung Richtung Restaurant am Ende des Universums und einem Tag im All…
Herr Schneider bekommt in dem Liedchen „Ich habe mich vertan“ einen Auftrag:
Ich soll einkaufen gehn Meine Frau hat mir einen schönen Zettel geschrieben Doch ich hab ihn verlegt, wo ist er nur? Jetzt muss ich improvisieren Ich gehe auf den Markt, kaufe 200 Gramm Kartoffeln Und ein Doppelzentner Mailänder Salami Als ich nach Hause komm' Krieg ich einen mit der zusammengerollten Zeitung auf den Kopf gehaun Damit nicht handscheu werde
Ich habe mich vertan Ich habe mich vertan (Kleines Klaviersolo)
[Zitationshilfe] : „KI-Unfall (271 bis 280)“, unter jottBlog : <https://jottblog.langkau.name/2025/10/13/ki-unfall-271-bis-280/> : aufgerufen am 00.00.20xx.
Sam Altman: „Am Ende tun wir alle das, was uns ein KI-Assistent sagt“
Im Gespräch mit Axel-Springer-Chef Mathias Döpfner im Podcast „MD Meets“ erläutert OpenAI-Gründer Sam Altman Chancen und Risiken von Künstlicher Intelligenz.
Anmerkung: ‚Wo man nicht überall Interviews geben kann… Irgendwie befremdlich‘, denken wir, ‚oder?!?‘. (Aber vielleicht hat ihm ja auch sein persönlicher KI-Assistent den Termin auf’s Auge gedrückt. Man weiß es nicht.)
Gefährliche Halluzinationen: KI schickt Touristen an Orte, die es nicht gibt
Ein malerischer Canyon in Peru, eine Seilbahn in Malaysia. Tausende sehen die Bilder online. Doch am Zielort erwartet Reisende oft nur eine gefährliche Enttäuschung. Was steckt dahinter?
Anmerkung: Denkt man: „Es kommt näher…“ – für manche ist es offensichtlich verdammt nah.
OpenAI sichert sich Rechenleistung für eine Billion Dollar trotz Kapitalmangels
OpenAI hat Verträge über etwa eine Billion Dollar für Rechenleistung abgeschlossen – ohne aktuell auch nur ansatzweise das Kapital zu haben, um diese zu finanzieren.
Anmerkung: Ein Silicon-Valley-Investor zur Financial Times ganz trocken:
Das Unternehmen ist in einem weitaus kapitalintensiveren Geschäft als Google oder Microsoft es je waren und wurde ohne Kostendisziplin geboren.
EU plant neue KI-Strategie zur Stärkung der digitalen Souveränität
Die EU will mit einer neuen KI-Strategie ihre technologische Abhängigkeit von den USA und China verringern. Im Zentrum stehen europäische Lösungen und der sicherheitspolitische Einsatz von Künstlicher Intelligenz.
Anmerkung: Wir wollen zugeben: wir haben uns schwer getan, diesen Artikel in die Hall of Fame „KI-Unfall“ aufzunehmen, deshalb auch in Minus („-267.“). Aber letztlich darf er nicht unerwähnt bleiben, denn
Zur Umsetzung der Maßnahmen will die EU-Kommission eine Milliarde Euro aus bestehenden Finanzierungsprogrammen bereitstellen.
Potzblitz! Das ist aber viel Geld! Herr Altman (CEO OpenAI) legt das jedes Jahr nur für die Hausmeister, die die Serverfarmen durchfegen, beiseite.
Brasilien: Millionengewinne mit Gisele Bündchen-Deepfakes
Betrüger in Brasilien haben Deepfakes von Gisele Bündchen in Instagram-Anzeigen verwendet und damit Millionen eingestrichen. Nun gab es mehrere Festnahmen.
OpenAI und Allied for Startups präsentieren 20 Vorschläge für KI-Adoption in Europa
Wenige Tage vor der geplanten Veröffentlichung der EU‑„Apply AI Strategy“ hat OpenAI gemeinsam mit Allied for Startups den Bericht „Hacktivate AI“ vorgelegt. Das Papier schlägt 20 politische Initiativen vor, um die Einführung von Künstlicher Intelligenz zu beschleunigen. Das Spektrum reicht von neuen Lernkonten und Fördergutscheinen über steuerliche Anreize bis zu infrastrukturellen Reformen.
Anmerkung: Einflussnahme? Nein, nein, man ist nur besorgt, oder?!?
OpenAI betont, der Zweck der Initiative sei es, Impulse für eine offene Debatte über KI‑Politik zu geben. Gleichwohl liegen viele Empfehlungen nahe an den Interessen großer Technologieanbieter: vereinfachte Zugangsbedingungen, beschleunigte Verfahren, weniger regulatorische Reibung.
…das lieben wir: wenn eine Schuldengrube nach „weniger regulatorischer Reibung“ ruft. Wollen wir gespannt sein? Wir wollen gespannt sein!
Anmerkung: Jürgen Geuter (tante) sei all denjenigen empfohlen, denen jottBlog-Beiträge zu kryptisch und zu dusselig sind. Herr Geuter kann was… laut Meta-Info:
Das Interview entstand im Zusammenhang mit dem University Future Festival 2025
…was wir selbstverständlich glauben wollen! Wie auch immer, wenn es jottBlog gerade einmal schafft, die Sensationslust zu stillen, dann ist es Herr Geuter, der eine saubere Einordnung des ganzem Galamas liefert.
Entdeckt: 06.10.2025
—
Galama : aus dem Kroatischen: „Lärm“, besser (hier) „Radau“
Das Internet wird überschwemmt von Kl-generiertem Müll. Automatisierte Bots produzieren eine Flut aus Kl-generierten Inhalten, der das Internet zu ersticken droht. Der Wissensraum wird mit Desinformation, Propaganda und synthetischen Bildern und Tönen geflutet. Werden wir bald nur noch Informationen bekommen, mit der die Kl uns füttert?
Anmerkung: Da nur (laut arte) bis zum 29.12.2025 in der Mediathek ist uns der Regisseur, Herr Mario Sixtus bestimmt nicht böse, wenn wir uns etwas aus dem Teaser genommen haben, um im jottBlog sinnvoll zu bleiben (und etwas Werbung für seine ca. 50minütige Dokumentation zu machen).
Wir dürfen uns, Weiteres zitierend, mit einer Frage konfrontiert sehen:
Während wir noch über die möglichen gesellschaftlichen Auswirkungen von Künstlicher Intelligenz sinnieren, ertrinkt der digitale Wissensraum bereits in synthetischem Schund. Wie konnte es so weit kommen?
Russland: Riesiges Interesse an KI-generierten Videos gefallener Soldaten
Eine Russin generiert gegen Bezahlung mit KI-Hilfe Clips gefallener Soldaten, die in den Himmel aufsteigen. Das Interesse daran ist riesig, die Warteliste lang.
[Zitationshilfe] : „KI-Unfall (261 bis 270)“, unter jottBlog : <https://jottblog.langkau.name/2025/10/11/ki-unfall-261-bis-270/> : aufgerufen am 00.00.20xx.
AUSRICHTUNG VON KI: Schlechter Code macht Chatbots böse
Die junge Wissenschaft zur emergenten Fehlausrichtung erforscht, wie scheinbar harmlose Trainingsdaten KIs an den moralischen Abgrund treiben können. Unsichererer Programmiercode, zweideutige Zahlen oder sogar Ratschläge zu Extremsportarten genügen.
Anmerkung: Es ist schade, dass spektrum den Auftrag, uns zu schützen, nicht wahrnimmt und dieses wichtige Wissen (da hinter der Bezahlwand) ausschließlich einem elitären Kreis zur Verfügung stellen mag. Wir wollen uns an dieser Stelle, hier und heute, mit der mächtigen Überschrift und dem aufbrausenden Teaser zufrieden geben, oder?
…Nein – man muss ja nun nicht gerade alle jungen Wissenschaften auf der Pfanne haben, so dass einem die Wissenschaft zur emergenten Fehlausrichtung schon einmal durch die Lappen gegangen sein könnte. Allerdings: sucht man danach, dann kommt man recht flott auf den unten verlinkten spektrum-Artikel und auch nicht mehr – nein, nicht ganz, denn
[1] OpenAI beschreibt ‘emergente Fehlausrichtung’ bei Sprachmodellen
[3] Die Forschungsergebnisse zeigen, dass das Training eines Modells mit falschen Antworten, selbst in einem eng begrenzten Bereich wie beispielsweise dem Verfassen unsicheren Computercodes, unbeabsichtigt dazu führen kann, dass sich das Modell in vielen anderen Bereichen fehlausgerichtet verhält.
…ach, ach wirklich? Wenn wir dem nach Links fragendem Kind Rechts zeigen, wenn wir dem nacht Rechts fragenden Kind Links zeigen, dann wundern wir uns, dass es nach Rechts geht, wenn wir es auffordern, nach Links zu gehen? Hammer, Haaaa-mer! Die finden alles raus bei OpenAI, alles!
Also, so rennt der Hase! OpenAI, die ihre Kiste in einem groß angelegtem Freilandversuch von Unfall zu Unfall schaukelt, versucht jetzt mal dahinter zu kommen, warum und wie ihre KI vergeigt. Schwups und Potzblitz – so ganz nebenbei wird da noch eine neue Wissenschaft ausgerufen! Sollte es so sein, dass OpenAI mit falschen Antworten trainiert hat, dann wollen wir dem Laden dazu raten, sich doch mal die Truppe der Qualitätssicherung genauer anzuschau… – was? Alle rausgeschmissen? Shareholder sehen da eine interne Geldvernichtungsmaschine? Ach so! Ja, OK.
Wird spektrum auch ein Hurra-Blättchen? (Man beachte auch im Teaser: nicht die KI ist schuld, sondern die bösen Daten! Haben wir es hier mit einem bewussten Arrangement zu tun, oder wurde hier auch nur bei OpenAI abgeschrieben? Wir wissen es nicht, da…)
PRÄVENTIVE FAHNDUNG MIT PRISMX : Der Radikalisierung per KI zuvorkommen
Das KI-Tool PrismX eines indischen Studenten analysiert Postings in sozialen Medien und erstellt eine Risikoeinschätzung für die Radikalisierung einer Person.
Anmerkung: Oh-ha! Eine Erinnerung huscht durch’s Gedächtnis des Autors dieser Zeilen
Es begab sich im letzten Jahrzehnt des vergangenen Jahrtausends, da übten wir uns beim Austausch von Strombriefen - zugegebenermaßen etwas übermütig - im groben Schabernack, in dem wir dem Verfassten (abschliessend im Fussbereich) einen Text anfügten, der mehr als deutlich zum Ausdruck brachte, dass man sich mit dem Bau von Waffen, der Herstellung von Sprengsätzen und im Übrigen bestens auf die Fabrikation von Substanzen verstünde, die darauf abzielten, das Bewusstsein der Konsumierenden etwas auf Vordermann zu bringen. Wir endeten dann mit einer Sequenz, die, sich fragend, darauf abzielte, ob denn ein BKA-Mitarbeiter das Geschrieben wohl läse, wir aber sicherlich die Ersten seinen, die dies erführen, wenn denn die Antwort "Ja!" lautete. Hat sich aber nie jemand gemeldet und wir werden nie erfahren, ob wir belauscht worden sind...
Das ist in dem hier zitierten Artikel dann schon ganz eine andere Hausnummer – bitte unbedingt lesen, liebe Leserin, lieber Leser des jottBlogs – wenn man geneigt ist, das Ohr am Puls der Zeit zu haben und vorbereitet sein mag, wenn sich die Frage formuliert, aus welcher Richtung denn das eisige Lüftchen der KI-Unfälle der kommenden Generationen zu wehen gedenkt.
Die Software verfügt sogar über eine Funktion, bei der ein KI-Chatbot versucht, Kontakt mit einer verdächtigen Person aufzunehmen.
…um eine „Deradikalisierung“ voranzutreiben, da
die erkannten emotionalen Zustände
…dieses wohl anrieten. Herr Balaji möchte
(…) damit eine ernsthafte ethische Debatte anstoßen, bevor Menschen mit böswilligen Absichten so eine Software im Verborgenen entwickeln.
…immerhin! Herr Balaji hat das Ganze auch lieber nur im Labor veranstaltet, weil er sich nicht damit konfrontiert gesehen haben wollte, dass die KI mal nicht so richtig die Kurve bekommt und der mit ihr im Dialog befindlichen Instanz von homo sapiens – zum Beispiel – beim Zusammenfummeln einer Knarre unter die Arme griffe.
Tencent entwickelt KI-System, das Spielstrategien erklären und umsetzen kann
Forschende von Tencent haben ein neues Trainingsverfahren entwickelt, bei dem KI-Modelle durch das Spielen von Honor of Kings strategisches Denken lernen sollen. Kleinere KI-Systeme übertreffen dabei deutlich größere Modelle.
Anmerkung: Drei Minus-Einträge in Folge, dürfen wir dieses, ohne die eigentliche Intention der jottBlog-Kategorie KI-Unfall schwer zu missachten? Auch in diesem und hier vorliegendem Fall ist es angeraten, ihn zu bemerken, denn es verbergen sich dahinter (also, in Zukunft) mannigfaltig Schatzwerk und eine ergiebige Quelle ✱echter✱ KI-Unfälle! Versprochen! Was dort so frei, fromm und fröhlich erforscht wird, wird homo sapiens in einer gar nicht so weiten Zukunft massive Probleme bereiten. Versprochen! #Re-vorab!
Zubereitung mit KI-Hilfe : Essen aus dem Kochroboter als Gastro-Zukunft?
Ein Hamburger Start-up bringt zusammen mit dem US-Konzern Meta einen Kochroboter mit Künstlicher Intelligenz auf den Markt. Vor allem die Systemgastronomie könnte die Technologie grundlegend verändern.
Anmerkung: Lange Zeit dachten wir, wir hätten im jottBlog das alleinige Recht, Dinge strikt vorher sagen zu dürfen: #Re-vorab. Nun macht uns schon die tagesschau.de dieses Recht streitig! Möge die Systemgastronomie in jener Technologie schwelgen (welch schöner Schnörkel des Kapitalismus!), doch sehen wird sie uns auch dann nicht.
Ein 19-Jähriger demoliert nachts 17 Autos und chattet Minuten später mit ChatGPT über seine Tat. Die Chat-Protokolle und weitere Spuren überführten ihn.
Anmerkung: Nein, ChatGPT ist kein Zeuge, sondern die Polizei nutzt das Chat-Protokoll als Beweismittel. Und, „Ja!“, der Dude hat einen schiefen Kompass.
MICROSOFT : KI knackt DNS-Sicherheitssysteme gegen Biowaffen
Forscher zeigen, wie künstliche Intelligenz Schutzmaßnahmen gegen die Entwicklung von Biowaffen und Giften umgehen könnte.
Anmerkung: Ja, so ist das halt mit Werkzeugen, die sich zum Einen als recht nützlich erweisen, zum Anderen… – nun ja, wir wissen schon, kann man nix machen…
OpenAI entdeckt nach Sora-Launch plötzlich das Urheberrecht
OpenAI-Chef Sam Altman kündigt an, dass Sora zukünftig Copyrights besser achten soll. Zum Launch war die App ein Freifahrtschein für Urheberrechtsverletzungen.
Anmerkung: Ein ab-so-lu-ter Leckerbissen – auch wenn dergleichen nicht das erste Mal in der jottBlog-Kategorie KI-Unfall aufschlägt. Vielleicht nicht auf den ersten Blick festzustellen, aber dann schleicht sich doch eine Irritation ein, denn Herr Altman, Hauptberuflich vermutlich OpenAI-CEO, kündigt voll so an
dass Rechteinhaber künftig mehr Kontrolle darüber erhalten sollen, wie ihre Charaktere in Sora verwendet werden dürfen.
…ja schau an! Aber auch „mehr Kontrolle“, nicht „vollständige Kontrolle“. Es wir den Urhebern also ein Kontrollsystem an die Hand gegeben
ob und wie Charaktere generiert werden dürfen. Dieses Modell soll über das bisherige Opt-in-Verfahren hinausgehen und detailliertere Einstellungen ermöglichen.
Na, da können die sich bei Disney aber warm anziehen – von wegen „detaillierte Einstellungen“! Und was ist, wenn ich einfach schlicht auf meinem Urheberrecht poche und *nichts* verwurstet sehen möchte? Nichts, gar nichts?!?
Und dann im Teaser „Freihfahrtschein für Urheberrechtsverletzungen“ – wenn ich als Benutzer der App die Aufforderung formuliere: „Hey, mache mir mal für unsere städtische Kommune ein kurzes Video, in dem ein kleiner gelber Roboter etwas Müll aufsammelt“ und bekomme das, was ich wollte, bin aber nicht in Kenntnis darüber, was die App da eigentlich zusammengefummelt hat, hänge es auf die Heimatseite unseres Dörfchens und habe zwei Wochen später dann Pixar auf der Matte stehen… echt?!? So geht das?
Bild: Pixars WALL-E bei der Arbeit.
Wir wollen uns auch dem decoder in der, mit einer knackigen Zwischen-Überschrift
Die große Ernüchterung: Warum KI forschen, aber keine echten Durchbrüche erzielen kann
Künstliche Intelligenz soll die Wissenschaft transformieren. Doch was, wenn den aktuellen Modellen eine entscheidende, zutiefst menschliche Eigenschaft für den nächsten großen Durchbruch fehlt? Experten warnen vor zu großen Erwartungen.
Anmerkung: Warum ein Unfall? Also, weil die Öffentlichkeit an der Nase herum geführt wird und
Die aktuelle Debatte zeigt, dass eine realistische Einordnung der KI-Fähigkeiten notwendig ist.
[Zitationshilfe] : „KI-Unfall (251 bis 260)“, unter jottBlog : <https://jottblog.langkau.name/2025/10/10/ki-unfall-251-bis-260/> : aufgerufen am 00.00.20xx.