Technologie

Kriminelle setzen ChatGPT zum Betrug und für Straftaten ein

ChatGPT, KI, Künstliche Intelligenz, OpenAI, Datenpanne
Stock Adobe / Timon
geschrieben von Felix Baumann

Eigentlich soll Künstliche Intelligenz unsere Welt verbessern. Doch nun setzen immer mehr Kriminelle Tools wie ChatGPT ein, um Betrug zu begehen. Die KI macht Straftaten dabei kinderleicht.

Die Vergangenheit hat uns bereits eines bewiesen: Jede neue Technologie kann uns große Schritte nach vorn bringen und unsere Welt verbessern. Gleichzeitig besteht aber auch das Risiko des Missbrauchs. Im Resultat entstehen dabei teils mächtige Werkzeuge zum Ausüben von Straftaten und Betrug. Das gilt offenbar auch für die Künstliche Intelligenz ChatGPT.

Eigentlich veröffentlichte OpenAI den Algorithmus, um die Welt ein klein wenig besser zu machen und uns zu unterstützen. Doch was Interessierte für Recherchen zu Schulreferaten einsetzen können, ist auch beim Auffinden illegaler Informationen hilfreich. Das macht zumindest ein Bericht von Europol deutlich.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Senior Communication Manager – Social Media (f/m/d)
E.ON Energy Markets GmbH in Essen
Social Media Content Creator (m/w/d)
KLINIK BAVARIA Kreischa / Zscheckwitz in Kreischa

Alle Stellenanzeigen


Straftaten und Betrug: ChatGPT hilft bei der Herstellung von Crack

Denn Kriminelle nutzen den Algorithmus scheinbar, um Anleitungen im Internet zu finden. Neben Plänen für den Bau von Rohrbomben liefert ChatGPT auch Informationen zur Herstellung der Droge Crack. Zwar implementierte OpenAI bestimmte Filtermechanismen in die KI, um das zu vermeiden, dennoch scheinen diese bereits umgehbar zu sein.

Es ist also so einfach wie noch nie an solche illegalen Informationen zu gelangen. Europol betont, dass die Inhalte bereits vorher im Internet verfügbar waren, ChatGPT das Auffinden nun aber deutlich beschleunigt. Die nächste Straftat scheint also nur eine Chatnachricht entfernt.

Ist ChatGPT das ideale Tool für Kriminelle?

ChatGPT scheint auch ein ideales Tool für Betrug zu sein. Denn schauen wir etwa auf Phishing-Angriffe, so lassen sich häufig Betrüger anhand von Rechtschreib- oder Grammatikfehlern überführen. Doch schreibt eine KI eine E-Mail über ein verloren gegangenes Paket oder ein Familienmitglied in Not, kann es schnell schwierig werden.

Was lässt sich also tun? OpenAI sollte dringend die Filtermechanismen optimieren und ein Meldesystem schaffen, mit dem Nutzer Antworten außerhalb des rechtlichen Bereichs melden können. Denn nur so unterminieren immer besser werdende Algorithmen nicht auch unsere Sicherheit.

Auch interessant:

Über den Autor

Felix Baumann

Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.