Die Hamburger Polizei warnt derzeit vor KI-generierten Bildern von Frauen in Uniformen in teils lasziven Posen, die in den digitalen Medien kursieren. Die Vermutung: Ein Lockvogel-Trick, der Nutzer von den Fake-Profilen auf kostenpflichtige Seiten locken soll. Eine kommentierende Analyse.
Fake-Accounts: Polizei Hamburg warnt vor KI-Polizistinnen
- Im Netz gibt es offenbar viele Nutzer, die sich von Polizistinnen angezogen fühlen und KI-generierte Inhalte nicht sofort erkennen können. Einige scheinen sogar bereit zu sein, dafür zu bezahlen, mehr von diesen angeblichen Beamtinnen sehen zu können. Allein der Fake-Account der angeblichen Polizistin Sara hat bei Instagram über 45.000 Follower.
- Um zu verhindern, dass Nutzer auf die KI-Polizistinnen reinfallen, hat die Polizei Hamburg klargestellt, dass sie keine privaten Instagram-Profile von einzelnen Einsatzkräften betreibt. Gegen die entsprechenden Fake-Accounts werden bereits rechtliche Schritte geprüft. Die Polizei bittet zudem darum, entsprechende Inhalte und Profile bei den jeweiligen Netzwerken zu melden.
- KI-Influencer sind keine Seltenheit mehr. Doch ihre Akzeptanz in der Gesellschaft schwankt stark. Laut einer Umfrage aus dem Jahr 2025 sehen 27 Prozent der Millennials es als wahrscheinlich an, dass sie Inhalte von einem KI-generierten Influencer lesen, ansehen oder damit interagieren würden. Bei den Baby Boomern sind elf Prozent. Die Generation Z kommt auf 19 Prozent.
KI ermöglicht neue Betrugsmaschen
KI-Influencer sind mehr als nur ein schräger Social Media-Trend. Denn Fake-Accounts und KI-generierte Inhalte wie Bilder von vermeintlichen Polizistinnen offenbaren, wie einfach sich viele Menschen durch einen Mix aus Autorität, Sexualisierung und Technologie täuschen lassen.
Denn für immer mehr Nutzer verschwimmen die Grenzen zwischen Realität und Fiktion. Einerseits, weil KI-Technologien immer besser werden und andererseits, weil sie Betrügern neue Möglichkeiten eröffnen. Das Problem: Ein Appell an die Medienkompetenz einzelner Nutzer reicht nicht mehr aus, da immer weniger Menschen KI-Inhalte als solche erkennen.
Zudem sind Täuschungen und Manipulationen oft systematisch angelegt, sodass sie über einzelne Kommentarspalten hinausgehen. Betrüger, Populisten und Machiavellisten haben etwa längst erkannt, wie sich schädliche oder politische Inhalte subtil verbreiten lassen, um die Wahrnehmung zu verschieben – und zwar auch ohne Millionenreichweite, sondern durch eine Masse an Beiträgen, die KI erst möglich gemacht hat.
Stimmen
- Offenbar liegen vermehrt Hinweise auf Social Media-Profile vor, „die offenbar mittels Künstlicher Intelligenz generierte Bilder von Frauen in Polizeiuniform zeigen“, so ein Polizeisprecher der Deutschen Presse-Agentur. „Diese Profile erwecken den Anschein, echte Hamburger Polizistinnen darzustellen. Sie sind nicht authentisch und schaden dem Ansehen der Polizei Hamburg.“
- Medienethikerin Jessica Heesen stellt mit Erschrecken fest: „Wir sehen ja so ein ganz merkwürdiges Phänomen: Kaum dass man so eine Technologie zur Verfügung hat, wird die systematisch dazu benutzt, sexualisierte Darstellungen von Frauen zu haben, die auch teilweise sehr stark diskriminierend sind.“
- Ein Nutzer namens Professor EP, der anonym bleiben will und die KI-Influencerin Emily Pellegrini erstellt und entsprechend gekennzeichnet hat, wehrt sich: „Viele Männer fühlen sich im Alltag übersehen oder emotional isoliert. Mit einer KI-Influencerin können sie Nähe simulieren – ohne Angst vor Ablehnung, ohne Realität.“
Aufklärung allein reicht nicht
Netzwerke wie Instagram und Co. müssen künftig mehr Verantwortung für Inhalte auf ihren Plattformen übernehmen, anstatt diese als Durchleiter von sich zu weisen. Kennzeichnungspflichten für KI-generierte Inhalte sollten etwa zum Standard werden – und zwar gut sichtbar, verpflichtend und sanktionierbar.
Andernfalls droht eine weitere Vertrauens-Erosion. Das gilt sowohl für die digitale Öffentlichkeit als auch für reale Institutionen. Auch KI-Anbieter müssen deshalb stärker in die Pflicht genommen werden, etwa durch technische Wasserzeichen oder Nutzungseinschränkungen bei sensiblen Symbolen wie Uniformen.
Die Debatte dreht sich dabei nicht nur um Betrug, sondern auch um Macht. Wer darf Identitäten erschaffen? Und: zu welchem Zweck? Eine Regulierung wird deshalb zwangsläufig politisch werden. Nicht zuletzt steht die Gesellschaft selbst vor einer Bewährungsprobe.
Denn Aufklärung allein scheint nicht mehr zu reichen, wenn immer mehr Nutzer Täuschungen und KI-generierte Inhalte nicht erkennen können oder wollen. Medienkompetenz, klare Regeln und konsequentes Durchgreifen müssen zusammenkommen – sonst werden KI-Profile nicht die letzte Illusion bleiben, die sich profitabel verkaufen lässt.
Auch interessant:





