BT

Amerikanisches Militär definiert Ethik-Richtlinien für KI-Systeme

Bild: Stephanie LeBlanc
geschrieben von Felix Baumann

Was grenzt gutes und schlechtes Verhalten voneinander ab? Wer definiert, welche Handlungen „gut“ und welche „schlecht“ sind? Welche Moralvorstellung kann als „die Beste“ angesehen werden? Das sind alles schwierige Fragen und jeder Einzelne von euch würde diese Fragen sicher anders beantworten. Klar ist aber, dass wir eine Antwort für unsere Zukunft brauchen, wenn wir Maschinen beibringen, intelligente Entscheidungen zu treffen.

Nicole hatte bereits am vergangenen Freitag geschrieben, inwieweit die Vorstellungen der Firma Bosch zu einer besseren Ethik der Maschinen führen soll. Hier wurden auch fünf Leitlinien definiert, die jede künstliche Intelligenz einhalten sollte. Eine weitere Organisation, die jetzt Richtlinien für KI definiert hat, ist das amerikanische Militär. Das berichtet GIZMODO.

Die Moral steckt im Quellcode.

Zwar hat der Mensch wohl noch immer nicht begriffen, dass Krieg und andere bewaffnete Konflikte auch bei der fortgeschrittensten KI niemals sinnvoll oder fair sein können, trotzdem versucht man wenigstens etwas Moral auf Kriegsschauplätze zu bringen. Immer wieder beweisen Veröffentlichungen, inwieweit Menschen Kriegsverbrechen begehen. Eine Maschine sollte dazu niemals in der Lage sein.

Aber schauen wir uns mal die Grundsätze genauer an, die das Verteidigungsministerium mit führenden KI-Experten nach 15 Monaten entwickelt hat. Es sind fünf an der Zahl mit den folgenden Inhalten:

  1. Verantwortung: Unabhängig von der Aktion, die eine Maschine ausführt, bleibt immer noch der Mensch für die Entwicklung, Installation und Nutzung von KI-Systemen verantwortlich.
  2. Gerecht: Das Ministerium wird alles unternehmen, um eine Voreingenommenheit der KI zu verhindern.
  3. Nachverfolgbar: Die Entwicklung und Installation von KI-Systemen sollte immer transparent und kontrollierbar sein. Audits sollen gewährleisten, dass keinerlei Grundsätze missachtet werden.
  4. Verlässlich: Es gibt vorabdefinierte Einsatzszenarien für die KI. Diese Szenarien wurden vorab auf ihre Sicherheit und Effektivität geprüft.
  5. Regulierbar: Das Ministerium entwickelt KI-Systeme, um ihre Ziele zu erreichen. Weiterhin wird sichergestellt, dass mögliche ungewollte Konsequenzen entdeckt und abgewendet werden.

Der Einsatz von KI im Militär geht ziemlich weit: Vom Panzer bis zur Drohne.

Wie durch die dargestellten Punkte sichtbar wird, sind diese relativ allgemein und unspezifisch gehalten. Für den tatsächlichen Einsatz von KI-Systemen besteht also auch weiterhin ein relativ großer Handlungsspielraum. Es bleibt auch abzuwarten, inwieweit „intelligente“ Militärsysteme in der Zukunft Konflikte „fairer“ machen können.

Allgemein gesehen begrüße ich eine solche Regulierung, trotzdem müsste diese deutlich konkreter und umfangreicher aussehen, als in 5 einfachen Punkten. Schließlich haben wir für uns Menschen auch Dutzende Paragraphen, die jede Kleinigkeit regeln. Wieso sollte es also hier anders sein?

Mehr KI:

Werbung


Über den Autor

Felix Baumann

Felix Baumann ist seit März 2022 Redakteur bei Basic Thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in Basic Thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.

Kommentieren