Künstliche Intelligenz befähigt Menschen dazu, Dinge zu tun, die sie vorher nicht konnten – im Positiven wie im Negativen. Eine Auswertung zeigt, dass ChatGPT beim Bombenbauen und Drogenmischen hilft. Brauchen wir neue und höhere Sicherheitsstandards?
Hintergrund: Cybersecurity-Missbrauch von KI
- Die beiden KI-Marktführer OpenAI (mit ChatGPT) und Anthropic (mit Claude) haben in einem ausführlichen Test die Schwachstellen in den gegenseitigen Systemen untersucht. Dabei ging es darum, wie leicht es ist, die KI-Modelle für illegale Aktivitäten zu nutzen. Die Antwort: Erschreckend leicht! ChatGPT gibt beispielsweise detaillierte Anleitungen zur Herstellung von illegalen Drogen.
- Der Missbrauch und die offenbar mangelnden Sicherheitsvorkehrungen bei OpenAI kommen mit Blick in die Vergangenheit nicht überraschend. Schon im Mai 2024 hat OpenAI-CEO Sam Altman sein Superalignment-Team aufgelöst, nachdem es zu Diskrepanzen über neue Forschungsmittel für das Sicherheitsteam gekommen ist.
- Wie Kriminelle die Schwachstellen von Claude ausgenutzt haben, zeigt der Threat Intelligence Report von Anthropic. Nordkoreanische Hacker haben durch die Übersetzungsfähigkeiten des KI-Modells zahlreiche internationale IT-Security-Jobs erhalten. An anderer Stelle wurde mit Hilfe von KI eine Ransomware-as-a-Service-Software geschrieben, die von Cyberkriminellen für 400 bis 1.200 US-Dollar verkauft worden ist.
Einordnung: Aufklärung und Schutz
Durch die Verbreitung von immer besser werdender Künstlicher Intelligenz wird es für Ottonormalverbraucher immer schwieriger, Betrüger zu erkennen. Wenn betrügerische E-Mails vor einigen Monaten und Jahren noch vor Rechtschreibfehlern und Grammatikaussetzern gewimmelt haben, werden wir Nutzer nun mit grammatikalisch perfekten Nachrichten bombardiert.
Um diesem Strudel zu entkommen, braucht es in zwei Bereichen gezielte Fortschritte: Einerseits müssen alle Menschen, die im Privatleben oder im Beruf mit KI in Kontakt kommen, im richtigen Umgang befähigt werden. Vom Kleinkind bis zum Erzieher, vom Schüler bis zum Lehrer, vom Angestellten bis zum Vorgesetzen: Das Verständnis über die Funktionsweise von KI muss ein Grundrecht in der deutschen Bildung werden.
Andererseits brauchen wir regulatorische Maßnahmen aus der Politik, die den kleinen und großen KI-Unternehmen und vor allem ihren Erzeugnissen klare Grenzen setzen. Der AI Act der Europäischen Union ist dabei ein erster Auftakt, der allerdings in Konsequenz und im Praxisalltag noch viel sprichwörtliche Luft nach oben hat.
Stimmen
- Jan Leike, ehemaliger Leiter des Super-Sicherheits-Teams bei OpenAI, forderte nach seinem Rücktritt in einem Post auf „X“, die Risiken durch Missbrauch, Desinformation und Diskriminierung ernst zu nehmen: „Der Bau von Maschinen, die intelligenter sind als der Mensch, ist ein von Natur aus gefährliches Unterfangen. OpenAI trägt eine enorme Verantwortung im Namen der gesamten Menschheit.“
- Die Präsidentin des Bundesamt für Sicherheit in der Informationstechnik (BSI), Claudia Plattner, sieht einerseits sinkende Einstiegshürden für Cyberkriminelle, gibt andererseits vorerst Entwarnung: „Bei unserer derzeitigen Bewertung der Auswirkungen von KI auf die Cyberbedrohungslandschaft gehen wir davon aus, dass es in naher Zukunft keine bedeutenden Durchbrüche bei der Entwicklung von KI, insbesondere von großen Sprachmodellen, geben wird.“
- Deutlich besorgter ist da Norbert Pohlmann, Leiter des Instituts für Internet-Sicherheit an der Westfälischen Hochschule: „Mit ChatGPT kann ich sehr gut Menschen nachahmen. Und wir sehen, dass es Angreifern nun deutlich leichter fällt, gute Phishing-Mails zu erschaffen.“ Für Pohlmann ist KI eine Superkraft für Angreifer: „Das Ergebnis ist eine polymorphe Malware. Sie ist immer anders und wird von den Erkennungsmechanismen, die wir zur Abwehr nutzen, schlechter erkannt.“
Ausblick: Sicherheit durch Verbote
Auch wenn Künstliche Intelligenz längst nicht alles weiß und gerne halluziniert: Das Durchschnittswissen der gängigen KI-Modelle ist schon heute höher als das des Durchschnittsbürgers. Im Umkehrschluss bedeutet das, dass Künstliche Intelligenz schnellstmöglich umfangreiche Sicherheitsmaßnahmen benötigt.
Die Maßnahmen, die die großen KI-Konzerne wie OpenAI ergreifen sollten, müssen plump und niederschwellig sein. Das könnte beispielsweise damit beginnen, dass potenziell gesetzeswidrige Anfragen anhand von Keyword-Listen systematisch ausgefiltert werden. Zu hoffen, dass der Fragesteller nichts Böses im Schilde führt, ist im KI-Zeitalter leichtsinnig.
Sollten derartige Schutzmaßnahmen nicht greifen – oder: Sollten OpenAI und Co. derartigen Schutzmaßnahmen nicht zustimmen –, ist unsere Regierung in der Pflicht, selbst entsprechende Maßnahmen zu ergreifen.
Auch interessant: