Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Ein KI-Roboter übergibt einem Menschen eine Anleitung.
BREAK/THE NEWSTECH

Bomben bauen leicht gemacht: Reichen die Sicherheitsvorkehrungen bei KI?

Christian Erxleben
Aktualisiert: 11. September 2025
von Christian Erxleben
Bild: Mit KI erstellt (Adobe Firefly)
Teilen

Künstliche Intelligenz befähigt Menschen dazu, Dinge zu tun, die sie vorher nicht konnten – im Positiven wie im Negativen. Eine Auswertung zeigt, dass ChatGPT beim Bombenbauen und Drogenmischen hilft. Brauchen wir neue und höhere Sicherheitsstandards?

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Hintergrund: Cybersecurity-Missbrauch von KI

  • Die beiden KI-Marktführer OpenAI (mit ChatGPT) und Anthropic (mit Claude) haben in einem ausführlichen Test die Schwachstellen in den gegenseitigen Systemen untersucht. Dabei ging es darum, wie leicht es ist, die KI-Modelle für illegale Aktivitäten zu nutzen. Die Antwort: Erschreckend leicht! ChatGPT gibt beispielsweise detaillierte Anleitungen zur Herstellung von illegalen Drogen.
  • Der Missbrauch und die offenbar mangelnden Sicherheitsvorkehrungen bei OpenAI kommen mit Blick in die Vergangenheit nicht überraschend. Schon im Mai 2024 hat OpenAI-CEO Sam Altman sein Superalignment-Team aufgelöst, nachdem es zu Diskrepanzen über neue Forschungsmittel für das Sicherheitsteam gekommen ist.
  • Wie Kriminelle die Schwachstellen von Claude ausgenutzt haben, zeigt der Threat Intelligence Report von Anthropic. Nordkoreanische Hacker haben durch die Übersetzungsfähigkeiten des KI-Modells zahlreiche internationale IT-Security-Jobs erhalten. An anderer Stelle wurde mit Hilfe von KI eine Ransomware-as-a-Service-Software geschrieben, die von Cyberkriminellen für 400 bis 1.200 US-Dollar verkauft worden ist.

Einordnung: Aufklärung und Schutz

Durch die Verbreitung von immer besser werdender Künstlicher Intelligenz wird es für Ottonormalverbraucher immer schwieriger, Betrüger zu erkennen. Wenn betrügerische E-Mails vor einigen Monaten und Jahren noch vor Rechtschreibfehlern und Grammatikaussetzern gewimmelt haben, werden wir Nutzer nun mit grammatikalisch perfekten Nachrichten bombardiert.

Um diesem Strudel zu entkommen, braucht es in zwei Bereichen gezielte Fortschritte: Einerseits müssen alle Menschen, die im Privatleben oder im Beruf mit KI in Kontakt kommen, im richtigen Umgang befähigt werden. Vom Kleinkind bis zum Erzieher, vom Schüler bis zum Lehrer, vom Angestellten bis zum Vorgesetzen: Das Verständnis über die Funktionsweise von KI muss ein Grundrecht in der deutschen Bildung werden.

Andererseits brauchen wir regulatorische Maßnahmen aus der Politik, die den kleinen und großen KI-Unternehmen und vor allem ihren Erzeugnissen klare Grenzen setzen. Der AI Act der Europäischen Union ist dabei ein erster Auftakt, der allerdings in Konsequenz und im Praxisalltag noch viel sprichwörtliche Luft nach oben hat.

Stimmen

  • Jan Leike, ehemaliger Leiter des Super-Sicherheits-Teams bei OpenAI, forderte nach seinem Rücktritt in einem Post auf „X“, die Risiken durch Missbrauch, Desinformation und Diskriminierung ernst zu nehmen: „Der Bau von Maschinen, die intelligenter sind als der Mensch, ist ein von Natur aus gefährliches Unterfangen. OpenAI trägt eine enorme Verantwortung im Namen der gesamten Menschheit.“
  • Die Präsidentin des Bundesamt für Sicherheit in der Informationstechnik (BSI), Claudia Plattner, sieht einerseits sinkende Einstiegshürden für Cyberkriminelle, gibt andererseits vorerst Entwarnung: „Bei unserer derzeitigen Bewertung der Auswirkungen von KI auf die Cyberbedrohungslandschaft gehen wir davon aus, dass es in naher Zukunft keine bedeutenden Durchbrüche bei der Entwicklung von KI, insbesondere von großen Sprachmodellen, geben wird.“
  • Deutlich besorgter ist da Norbert Pohlmann, Leiter des Instituts für Internet-Sicherheit an der Westfälischen Hochschule: „Mit ChatGPT kann ich sehr gut Menschen nachahmen. Und wir sehen, dass es Angreifern nun deutlich leichter fällt, gute Phishing-Mails zu erschaffen.“ Für Pohlmann ist KI eine Superkraft für Angreifer: „Das Ergebnis ist eine polymorphe Malware. Sie ist immer anders und wird von den Erkennungsmechanismen, die wir zur Abwehr nutzen, schlechter erkannt.“

Ausblick: Sicherheit durch Verbote

Auch wenn Künstliche Intelligenz längst nicht alles weiß und gerne halluziniert: Das Durchschnittswissen der gängigen KI-Modelle ist schon heute höher als das des Durchschnittsbürgers. Im Umkehrschluss bedeutet das, dass Künstliche Intelligenz schnellstmöglich umfangreiche Sicherheitsmaßnahmen benötigt.

Die Maßnahmen, die die großen KI-Konzerne wie OpenAI ergreifen sollten, müssen plump und niederschwellig sein. Das könnte beispielsweise damit beginnen, dass potenziell gesetzeswidrige Anfragen anhand von Keyword-Listen systematisch ausgefiltert werden. Zu hoffen, dass der Fragesteller nichts Böses im Schilde führt, ist im KI-Zeitalter leichtsinnig.

Sollten derartige Schutzmaßnahmen nicht greifen – oder: Sollten OpenAI und Co. derartigen Schutzmaßnahmen nicht zustimmen –, ist unsere Regierung in der Pflicht, selbst entsprechende Maßnahmen zu ergreifen.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

  • Im Internet: Das sind die 4 größten Sicherheits-Irrtümer
  • Meta-KI außer Kontrolle: Freizügige Bilder und Kindeswohlgefährdung
  • Gefährlich effizient: Wie Schatten-KI deutsche Unternehmen unterwandert
  • Kluger-Hans-Effekt: Wenn Künstliche Intelligenz der Gefahr wird
STELLENANZEIGEN
Content Creator (m/w/d)
Tintometer GmbH Lovibond® Water Testing in Dortmund
Content Creator mit Fokus auf Text und Multim...
Synformulas GmbH in Gräfelfing bei München
Senior Social-Media-Redakteur / Content Creat...
ETL Gruppe in Berlin
Software Documentation Specialist (m/w/d)
Rosen Technology & Research Center GmbH in Lingen
Online Marketing Manager (m/w/d)
Otto Graf GmbH Kunststofferzeugnisse in Teningen
Duales Studium zum Bachelor of Science (DH), ...
DZ BANK AG in Frankfurt am Main
Ausbildung zur/zum Fachinformatiker/in für Sy...
DZ BANK AG in Frankfurt am Main
Sales Manager (m/w/d) Online Marketing
Sellwerk GmbH & Co. KG in Aschaffenburg, Würzburg, M...
THEMEN:CybersecurityKünstliche IntelligenzSicherheit
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonChristian Erxleben
Folgen:
Christian Erxleben arbeitet als freier Redakteur für BASIC thinking. Von Ende 2017 bis Ende 2021 war er Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig.
Keine Kommentare Keine Kommentare

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

EMPFEHLUNG
eSchwalbe
E-Roller-Deal: Jetzt eSchwalbe für nur 29 Euro im Monat sichern
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

WhatsApp auf neues Handy übertragen
AnzeigeTECH

WhatsApp auf neues Handy übertragen, wenn das alte defekt ist

China KI-Server Meer Künstliche Intelligenz Wasser Kühlung Rechenzentrum Rechenzentren
TECH

China versenkt KI-Server im Meer – um Wasser zu sparen

Langzeitenergiespeicher Energiewende Erneuerbare Energien
GREENTECH

Energiespeicher sichert Solarenergie für den Winter – über Jahre

Solarzellen Fassade Solarenergie PV-Anlage PV-Modul Energiewende erneuerbare Energien
GREENTECH

Strom aus der Hauswand: Solarzellen direkt in der Fassade

Ein Offshore-Windpark im offenen Meer.
BREAK/THE NEWSGREEN

Offshore-Windparks: Geht Europa die Luft aus?

Kupfer-Katalysator CO2 Alkohol
GREENTECH

Kupfer-Katalysator: Forscher wandeln CO2 in Alkohol um

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?