Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Ein KI-Roboter übergibt einem Menschen eine Anleitung.
BREAK/THE NEWSTECH

Bomben bauen leicht gemacht: Reichen die Sicherheitsvorkehrungen bei KI?

Christian Erxleben
Aktualisiert: 11. September 2025
von Christian Erxleben
Bild: Mit KI erstellt (Adobe Firefly)
Teilen

Künstliche Intelligenz befähigt Menschen dazu, Dinge zu tun, die sie vorher nicht konnten – im Positiven wie im Negativen. Eine Auswertung zeigt, dass ChatGPT beim Bombenbauen und Drogenmischen hilft. Brauchen wir neue und höhere Sicherheitsstandards?

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Hintergrund: Cybersecurity-Missbrauch von KI

  • Die beiden KI-Marktführer OpenAI (mit ChatGPT) und Anthropic (mit Claude) haben in einem ausführlichen Test die Schwachstellen in den gegenseitigen Systemen untersucht. Dabei ging es darum, wie leicht es ist, die KI-Modelle für illegale Aktivitäten zu nutzen. Die Antwort: Erschreckend leicht! ChatGPT gibt beispielsweise detaillierte Anleitungen zur Herstellung von illegalen Drogen.
  • Der Missbrauch und die offenbar mangelnden Sicherheitsvorkehrungen bei OpenAI kommen mit Blick in die Vergangenheit nicht überraschend. Schon im Mai 2024 hat OpenAI-CEO Sam Altman sein Superalignment-Team aufgelöst, nachdem es zu Diskrepanzen über neue Forschungsmittel für das Sicherheitsteam gekommen ist.
  • Wie Kriminelle die Schwachstellen von Claude ausgenutzt haben, zeigt der Threat Intelligence Report von Anthropic. Nordkoreanische Hacker haben durch die Übersetzungsfähigkeiten des KI-Modells zahlreiche internationale IT-Security-Jobs erhalten. An anderer Stelle wurde mit Hilfe von KI eine Ransomware-as-a-Service-Software geschrieben, die von Cyberkriminellen für 400 bis 1.200 US-Dollar verkauft worden ist.

Einordnung: Aufklärung und Schutz

Durch die Verbreitung von immer besser werdender Künstlicher Intelligenz wird es für Ottonormalverbraucher immer schwieriger, Betrüger zu erkennen. Wenn betrügerische E-Mails vor einigen Monaten und Jahren noch vor Rechtschreibfehlern und Grammatikaussetzern gewimmelt haben, werden wir Nutzer nun mit grammatikalisch perfekten Nachrichten bombardiert.

Um diesem Strudel zu entkommen, braucht es in zwei Bereichen gezielte Fortschritte: Einerseits müssen alle Menschen, die im Privatleben oder im Beruf mit KI in Kontakt kommen, im richtigen Umgang befähigt werden. Vom Kleinkind bis zum Erzieher, vom Schüler bis zum Lehrer, vom Angestellten bis zum Vorgesetzen: Das Verständnis über die Funktionsweise von KI muss ein Grundrecht in der deutschen Bildung werden.

Andererseits brauchen wir regulatorische Maßnahmen aus der Politik, die den kleinen und großen KI-Unternehmen und vor allem ihren Erzeugnissen klare Grenzen setzen. Der AI Act der Europäischen Union ist dabei ein erster Auftakt, der allerdings in Konsequenz und im Praxisalltag noch viel sprichwörtliche Luft nach oben hat.

Stimmen

  • Jan Leike, ehemaliger Leiter des Super-Sicherheits-Teams bei OpenAI, forderte nach seinem Rücktritt in einem Post auf „X“, die Risiken durch Missbrauch, Desinformation und Diskriminierung ernst zu nehmen: „Der Bau von Maschinen, die intelligenter sind als der Mensch, ist ein von Natur aus gefährliches Unterfangen. OpenAI trägt eine enorme Verantwortung im Namen der gesamten Menschheit.“
  • Die Präsidentin des Bundesamt für Sicherheit in der Informationstechnik (BSI), Claudia Plattner, sieht einerseits sinkende Einstiegshürden für Cyberkriminelle, gibt andererseits vorerst Entwarnung: „Bei unserer derzeitigen Bewertung der Auswirkungen von KI auf die Cyberbedrohungslandschaft gehen wir davon aus, dass es in naher Zukunft keine bedeutenden Durchbrüche bei der Entwicklung von KI, insbesondere von großen Sprachmodellen, geben wird.“
  • Deutlich besorgter ist da Norbert Pohlmann, Leiter des Instituts für Internet-Sicherheit an der Westfälischen Hochschule: „Mit ChatGPT kann ich sehr gut Menschen nachahmen. Und wir sehen, dass es Angreifern nun deutlich leichter fällt, gute Phishing-Mails zu erschaffen.“ Für Pohlmann ist KI eine Superkraft für Angreifer: „Das Ergebnis ist eine polymorphe Malware. Sie ist immer anders und wird von den Erkennungsmechanismen, die wir zur Abwehr nutzen, schlechter erkannt.“

Ausblick: Sicherheit durch Verbote

Auch wenn Künstliche Intelligenz längst nicht alles weiß und gerne halluziniert: Das Durchschnittswissen der gängigen KI-Modelle ist schon heute höher als das des Durchschnittsbürgers. Im Umkehrschluss bedeutet das, dass Künstliche Intelligenz schnellstmöglich umfangreiche Sicherheitsmaßnahmen benötigt.

Die Maßnahmen, die die großen KI-Konzerne wie OpenAI ergreifen sollten, müssen plump und niederschwellig sein. Das könnte beispielsweise damit beginnen, dass potenziell gesetzeswidrige Anfragen anhand von Keyword-Listen systematisch ausgefiltert werden. Zu hoffen, dass der Fragesteller nichts Böses im Schilde führt, ist im KI-Zeitalter leichtsinnig.

Sollten derartige Schutzmaßnahmen nicht greifen – oder: Sollten OpenAI und Co. derartigen Schutzmaßnahmen nicht zustimmen –, ist unsere Regierung in der Pflicht, selbst entsprechende Maßnahmen zu ergreifen.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

  • Im Internet: Das sind die 4 größten Sicherheits-Irrtümer
  • Meta-KI außer Kontrolle: Freizügige Bilder und Kindeswohlgefährdung
  • Gefährlich effizient: Wie Schatten-KI deutsche Unternehmen unterwandert
  • Kluger-Hans-Effekt: Wenn Künstliche Intelligenz der Gefahr wird
STELLENANZEIGEN
DLP-Security Specialist (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
IT-System Engineer – Endpoint and Privi...
CompuGroup Medical SE & Co. KGaA in Koblenz
Cloud Database Engineer (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
Mitarbeiter*in Social Media (m/w/d)
Magni Deutschland GmbH in Dülmen
Content Manager – E-Commerce / Shopify ...
kalb Material für Möbel GmbH in Bünde
Head of Brand, Content & Communication (m...
MAXPERT GmbH in Frankfurt am Main
Social Media & Community Manager — DACH (...
G.B.T. Technology Trading GmbH in Hamburg, bundesweit
Pflichtpraktikum im E-Business – Busine...
Liebherr-Hausgeräte Ochsenhausen GmbH in Ulm
THEMEN:CybersecurityKünstliche IntelligenzSicherheit
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonChristian Erxleben
Folgen:
Christian Erxleben arbeitet als freier Redakteur für BASIC thinking. Von Ende 2017 bis Ende 2021 war er Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig.
WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
ITSM Software aus Deutschland
ITSM Software aus Deutschland: Sicher & souverän für den Mittelstand
Anzeige TECH
Samsung Galaxy S25 Ultra
Android-Special bei o2: Samsung Galaxy S25 Ultra & Tab S10 für nur 7 Euro Anzahlung
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

CRM für Apotheken
AnzeigeTECH

Was ist das beste CRM für Apotheken?

Audi A3 Sportback g-tron Foto: AUDI AG
TECH

Dauertest: Das sind die besten Autos in Deutschland

Browser-Erweiterung KI-Inhalte
TECH

Slop Evader: Browsererweiterung blendet KI-Inhalte aus

McDonald’s KI-Werbung Künstliche Intelligenz
BREAK/THE NEWSTECH

McDonald’s blamiert sich mit KI-Werbung

KI Geothermie
GREENTECH

Geothermie: KI spürt verborgene Energiequellen auf

ChatGPT Social Media, Künstliche Intelligenz, Soziale Medien, LinkedIn, Facebook, Instagram, TikTok
TECH

Einheitsbrei: ChatGPT lässt Social Media-Beiträge alle gleich klingen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Tagesgeldkonto eröffnen
50 € geschenkt bekommen

50 Euro

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?