Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Ein KI-Roboter übergibt einem Menschen eine Anleitung.
BREAK/THE NEWSTECH

Bomben bauen leicht gemacht: Reichen die Sicherheitsvorkehrungen bei KI?

Christian Erxleben
Aktualisiert: 11. September 2025
von Christian Erxleben
Bild: Mit KI erstellt (Adobe Firefly)
Teilen

Künstliche Intelligenz befähigt Menschen dazu, Dinge zu tun, die sie vorher nicht konnten – im Positiven wie im Negativen. Eine Auswertung zeigt, dass ChatGPT beim Bombenbauen und Drogenmischen hilft. Brauchen wir neue und höhere Sicherheitsstandards?

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Hintergrund: Cybersecurity-Missbrauch von KI

  • Die beiden KI-Marktführer OpenAI (mit ChatGPT) und Anthropic (mit Claude) haben in einem ausführlichen Test die Schwachstellen in den gegenseitigen Systemen untersucht. Dabei ging es darum, wie leicht es ist, die KI-Modelle für illegale Aktivitäten zu nutzen. Die Antwort: Erschreckend leicht! ChatGPT gibt beispielsweise detaillierte Anleitungen zur Herstellung von illegalen Drogen.
  • Der Missbrauch und die offenbar mangelnden Sicherheitsvorkehrungen bei OpenAI kommen mit Blick in die Vergangenheit nicht überraschend. Schon im Mai 2024 hat OpenAI-CEO Sam Altman sein Superalignment-Team aufgelöst, nachdem es zu Diskrepanzen über neue Forschungsmittel für das Sicherheitsteam gekommen ist.
  • Wie Kriminelle die Schwachstellen von Claude ausgenutzt haben, zeigt der Threat Intelligence Report von Anthropic. Nordkoreanische Hacker haben durch die Übersetzungsfähigkeiten des KI-Modells zahlreiche internationale IT-Security-Jobs erhalten. An anderer Stelle wurde mit Hilfe von KI eine Ransomware-as-a-Service-Software geschrieben, die von Cyberkriminellen für 400 bis 1.200 US-Dollar verkauft worden ist.

Einordnung: Aufklärung und Schutz

Durch die Verbreitung von immer besser werdender Künstlicher Intelligenz wird es für Ottonormalverbraucher immer schwieriger, Betrüger zu erkennen. Wenn betrügerische E-Mails vor einigen Monaten und Jahren noch vor Rechtschreibfehlern und Grammatikaussetzern gewimmelt haben, werden wir Nutzer nun mit grammatikalisch perfekten Nachrichten bombardiert.

Um diesem Strudel zu entkommen, braucht es in zwei Bereichen gezielte Fortschritte: Einerseits müssen alle Menschen, die im Privatleben oder im Beruf mit KI in Kontakt kommen, im richtigen Umgang befähigt werden. Vom Kleinkind bis zum Erzieher, vom Schüler bis zum Lehrer, vom Angestellten bis zum Vorgesetzen: Das Verständnis über die Funktionsweise von KI muss ein Grundrecht in der deutschen Bildung werden.

Andererseits brauchen wir regulatorische Maßnahmen aus der Politik, die den kleinen und großen KI-Unternehmen und vor allem ihren Erzeugnissen klare Grenzen setzen. Der AI Act der Europäischen Union ist dabei ein erster Auftakt, der allerdings in Konsequenz und im Praxisalltag noch viel sprichwörtliche Luft nach oben hat.

Stimmen

  • Jan Leike, ehemaliger Leiter des Super-Sicherheits-Teams bei OpenAI, forderte nach seinem Rücktritt in einem Post auf „X“, die Risiken durch Missbrauch, Desinformation und Diskriminierung ernst zu nehmen: „Der Bau von Maschinen, die intelligenter sind als der Mensch, ist ein von Natur aus gefährliches Unterfangen. OpenAI trägt eine enorme Verantwortung im Namen der gesamten Menschheit.“
  • Die Präsidentin des Bundesamt für Sicherheit in der Informationstechnik (BSI), Claudia Plattner, sieht einerseits sinkende Einstiegshürden für Cyberkriminelle, gibt andererseits vorerst Entwarnung: „Bei unserer derzeitigen Bewertung der Auswirkungen von KI auf die Cyberbedrohungslandschaft gehen wir davon aus, dass es in naher Zukunft keine bedeutenden Durchbrüche bei der Entwicklung von KI, insbesondere von großen Sprachmodellen, geben wird.“
  • Deutlich besorgter ist da Norbert Pohlmann, Leiter des Instituts für Internet-Sicherheit an der Westfälischen Hochschule: „Mit ChatGPT kann ich sehr gut Menschen nachahmen. Und wir sehen, dass es Angreifern nun deutlich leichter fällt, gute Phishing-Mails zu erschaffen.“ Für Pohlmann ist KI eine Superkraft für Angreifer: „Das Ergebnis ist eine polymorphe Malware. Sie ist immer anders und wird von den Erkennungsmechanismen, die wir zur Abwehr nutzen, schlechter erkannt.“

Ausblick: Sicherheit durch Verbote

Auch wenn Künstliche Intelligenz längst nicht alles weiß und gerne halluziniert: Das Durchschnittswissen der gängigen KI-Modelle ist schon heute höher als das des Durchschnittsbürgers. Im Umkehrschluss bedeutet das, dass Künstliche Intelligenz schnellstmöglich umfangreiche Sicherheitsmaßnahmen benötigt.

Die Maßnahmen, die die großen KI-Konzerne wie OpenAI ergreifen sollten, müssen plump und niederschwellig sein. Das könnte beispielsweise damit beginnen, dass potenziell gesetzeswidrige Anfragen anhand von Keyword-Listen systematisch ausgefiltert werden. Zu hoffen, dass der Fragesteller nichts Böses im Schilde führt, ist im KI-Zeitalter leichtsinnig.

Sollten derartige Schutzmaßnahmen nicht greifen – oder: Sollten OpenAI und Co. derartigen Schutzmaßnahmen nicht zustimmen –, ist unsere Regierung in der Pflicht, selbst entsprechende Maßnahmen zu ergreifen.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

  • Im Internet: Das sind die 4 größten Sicherheits-Irrtümer
  • Meta-KI außer Kontrolle: Freizügige Bilder und Kindeswohlgefährdung
  • Gefährlich effizient: Wie Schatten-KI deutsche Unternehmen unterwandert
  • Kluger-Hans-Effekt: Wenn Künstliche Intelligenz der Gefahr wird
Bondora

Anzeige

STELLENANZEIGEN
Praktikum Onlinemarketing & Redaktion (m/...
Nestlé Deutschland AG in Frankfurt am Main
Social Media Manager (M/W/D)
Zentrum für Europäischen Verbraucherschutz e.V. in Kehl
Referent*in Social Media (w/m/d) für das Pres...
Bundesanstalt für Finanzdienstlei... in Frankfurt am...
Praktikum AI/KI im E-Commerce & Marketing
IEA International Trading GmbH in München
Video- & Social-Media Redakteur (w/m/d) F...
Deutsche Welle in Bonn
Praktikum im Bereich Digital Marketing Commun...
Bosch Rexroth in Elchingen
Social Media Manager (m/w/d)
Frittenwerk GmbH in Düsseldorf
Online Marketing Manager (m/w/d), befristet f...
Vodafone GmbH in Düsseldorf
THEMEN:CybersecurityKünstliche IntelligenzSicherheit
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonChristian Erxleben
Folgen:
Christian Erxleben arbeitet als freier Redakteur für BASIC thinking. Von Ende 2017 bis Ende 2021 war er Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig.
Keine Kommentare Keine Kommentare

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

NIBC

Anzeige

EMPFEHLUNG
Strom-Wechselservice Wechselpilot-2
Strom-Wechselservice: Was bringt dir der Service wirklich?
Anzeige MONEY
Nass-Trockensauger
Nur für kurze Zeit: Starken AEG 2-in-1-Nass-Trockensauger für nur 389 Euro sichern
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

ChatGPT Atlas Perplexity Comet Vergleich
TECH

KI-Browser: ChatGPT Atlas und Perplexity Comet im Vergleich

PayPal ChatGPT bezahlen KI OpenAI Shopping
BREAK/THE NEWSMONEY

PayPal-Deal: Wirft ChatGPT unser Geld bald zum Fenster raus?

CRM für Industrieunternehmen
AnzeigeTECH

CRM für Industrieunternehmen: Verkaufschancen und After-Sales-Prozesse optimieren

KI Krankheiten erkennen DOLPHIN
TECH

Neues KI-Tool erkennt Krankheiten, bevor Symptome auftreten

WELOCK
AnzeigeTECH

WELOCK Smart Lock Zylinder: Moderne Sicherheit für Haustür, Wohnung und Büro

KI Demokratie, Kolumne, Politik, Künstliche Intelligenz, Antizipatorische Demokratie, Gesellschaft, Gesellschaftssystem
MONEYTECH

Wegen KI: Warum wir Demokratie neu denken müssen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Bis 23.11. Hausrat versichern &
10 Prozent Rabatt sichern!

GVV Direkt Logo

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?