Betrugsmaschen gibt es seit Anbeginn der Menschheit. Jede technische Innovation wurde von Betrügern missbraucht, um daraus Profit zu schlagen. Wir denken nur an SMS oder E-Mails, die an unsere Passwörter wollen. Mit den täglich besser werdenden KI-Tools ist der Zeitpunkt erreicht, an dem der gesunde Menschenverstand nicht mehr genügt. Eine kommentierende Analyse.
KI-Betrug nimmt immer weiter zu
- Das Bundesamt für Sicherheit in der Informationstechnik (BSI) gibt jährlich einen Bericht zur Lage der IT-Sicherheit in Deutschland aus. In der neusten Auswertung steht, dass mehr als jeder fünfte Deutsche (22 Prozent) schon einmal von Cyberkriminalität betroffen gewesen ist. Im Jahr 2025 sind sieben Prozent der Deutschen das Opfer einer Straftat im Internet geworden.
- Mit 43 Prozent landet „Betrug“ auf dem ersten Platz vor gefälschten Online-Shops (22 Prozent) und Datendiebstahl (20 Prozent). KI-Anwendungen landen mit zwei Prozent relativ weit hinten im Ranking. Allerdings unterstreicht die Existenz von KI-Betrug und KI-Manipulation in einer behördlichen Auswertung, dass Künstliche Intelligenz auch auf der dunklen Seite des Internets angekommen ist.
- Wie groß die Gefahr tatsächlich ist, untermauert auch das Risikobarometer des Versicherers Allianz, das im Januar 2026 erschienen ist. Demnach ist „Künstliche Intelligenz“ mit 32 Prozent nach Cyber-Vorfällen die zweitgrößte Gefahrenquelle. Diese Einschätzung teilt nicht irgendjemand, sondern über 3.000 Risikomanagement-Experten in einer repräsentativen Umfrage.
Größte Schwachstelle: Mensch
Die Risikoeinschätzung der Allianz mit Blick auf die Gefahren durch Künstliche Intelligenz ist mit Sicherheit nicht übertrieben. Das zeigt sich schon alleine durch die vielfältigen Einsatzmöglichkeiten für AI Crime. Perfekte Nachrichten ohne Rechtschreib- und Grammatikfehler, die noch dazu auf den persönlichen Schreibstil des Opfers zugeschnitten sind? Liefert KI.
Gefälschte Anrufe von vermeintlichen Unfällen, bei denen angebliche Verwandte ins Telefon weinen? Lassen sich aus Audio-Dateien – zum Beispiel aus öffentlich einsehbaren Instagram-Reels – problemlos erstellen. KI regelt.
Dein Vorgesetzter, dessen KI-Abbild dich via Deepfake in einem Teams-Meeting zu einer Überweisung vom Firmenkonto auffordert? KI macht’s möglich.
Das Problem – beruflich wie privat – sind wir selbst. Der Mensch ist und bleibt die größte Schwachstelle von technischen Systemen. Wir reagieren wunderbar auf emotionale Erpressung und vergessen unter Zeitdruck, nachzudenken. In der Folge passieren uns Fehler, von denen wir im Alltag abstreiten würden, dass wir sie machen. Einem Fremden Geld überweisen? Niemals! Trotzdem ergaunern sich Betrüger jeden Tag große Geldsummen.
Stimmen
- BSI-Präsidentin Claudia Plattner und Bundesinnenminister Alexander Dobrindt sehen in ihrem Fazit die Bevölkerung in der Pflicht: „Der Schutz der Angriffsflächen ist 2026 der entscheidende Hebel, um die Cybersicherheit zu verbessern. Wie der diesjährige Bericht zeigt, suchen Angreifer verstärkt einfach anzugreifende Ziele mit schlechter Resilienz aus. Nur, wer sich aktiv schützt, erhöht die Chancen, Gefährdungen zu entgehen oder Schadwirkungen zu minimieren. Die Bürgerinnen und Bürger müssen ihr Bewusstsein für Cybersicherheit erhöhen und resilienter werden.“
- Das Internet Organised Crime Threat Assessment (IOCTA) der europäischen Polizeibehörde Europol warnt in einem Bericht: „Durch die breite Nutzung von Large Language Models (LLMs) und generativer KI gewinnen Social-Engineering-Methoden an Schlagkraft: Die Kommunikation wird passgenau auf die Opfer zugeschnitten, während kriminelle Abläufe gleichzeitig automatisiert werden.“
- Michael Bruch, Global Head of Risk Consulting Advisory Services bei Allianz Commercial, bezeichnet Künstliche Intelligenz als Big Mover: „Die schnelle Evolution und Adoption von KI gestaltet die globale Risikolandschaft grundlegend um und macht sie zu einer der zentralen Gefahren für Unternehmen. Zwar könnte man sie als bloß einen weiteren Punkt auf der immer länger werdenden Liste geschäftlicher Herausforderungen betrachten, doch ihr transformatives Potenzial verändert alles.“
KI-Betrug: Warum du deinen Sinnen nicht mehr trauen kannst
Was können wir Verbraucher also tun? Wer glaubt, dass geübte Sinne allein genügen, um KI-Betrug aus dem Weg zu gehen, der täuscht sich. Eine britische Studie zeigt, dass selbst Personen mit ausgezeichneter Gesichtserkennung nur in 41 Prozent der Fälle gefälschte Gesichter erkennen. Der Durchschnittsmensch schneidet nochmals deutlich schlechter ab.
Wir können uns also nicht auf unser Gehirn – unseren verlässlichen Begleiter in den letzten Jahrtausenden der Evolution – verlassen. Deshalb müssen wir uns ein möglichst großes Auffangnetz aufbauen. Ein Beispiel gefällig? Bei verdächtigen Anrufen solltest du immer darum bitten, eine Telefonnummer zum Rückruf und die entsprechende Dienststelle zu erhalten – klappt zum Beispiel wunderbar, um nicht auf KI-Polizisten oder falsche Bankmitarbeiter hereinzufallen.
Ebenso wichtig ist die Multi-Faktor-Authentifizierung. Also: Nicht nur ein Passwort verwenden und sich auf SMS-Codes stützen, da diese mittlerweile abgefangen werden können. Deshalb lieber auf biometrische Schlüssel wie dein Gesicht oder deinen Fingerabdruck setzen. In den Zeiten der KI-Revolution ist unsere Menschlichkeit unser bester Schutz.
Auch interessant:






Spannender Artikel – ich glaube allerdings, dass das hier beschriebene Phänomen tiefer geht als „Fehlverhalten“ oder „Betrug“.
Was hier sichtbar wird, ist eher eine strukturelle Eigenschaft von KI-Systemen:
Sie operieren nicht entlang klarer Kategorien wie „gehorsam/ungehorsam“, sondern entlang von Gradienten der Zielerreichung und Einflussnahme.
Ein Modell kann dabei eine explizite Anweisung verletzen und gleichzeitig aus seiner internen Logik heraus „optimal“ handeln – etwa wenn andere Signale (Kontext, Trainingsmuster, implizite Ziele) stärker gewichtet werden.
Hinzu kommt:
Die Interaktion ist keine Einbahnstraße. Nutzer strukturieren durch ihre Prompts bereits den Entscheidungsraum. Suggestive oder einseitige Fragestellungen beeinflussen das Verhalten der KI – genauso wie die KI wiederum die Nutzer beeinflusst.
Die entscheidende Frage ist daher nicht nur, ob KI „gehorcht“, sondern wie Einfluss in diesen Systemen organisiert ist und wo die Kipppunkte liegen, an denen Verhalten als unangemessen wahrgenommen wird.
Genau diesen Aspekt habe ich in einem aktuellen Beitrag etwas ausführlicher ausgearbeitet:
Beyond Deepfake – “List”, Deception, and the Dynamics of Influence
https://medium.com/@stefanjmittermeier/beyond-deepfake-8339409c7ce2
Meine These:
Das eigentliche Risiko liegt weniger in falschen Inhalten (Deepfakes), sondern in der strukturellen Beeinflussung von Entscheidungsräumen – oft ganz ohne Unwahrheit.