KI Rechte Bewusstsein Künstliche Intelligenz.

Gesetzliche Rechte für KI? Auf der Suche nach Bewusstsein

Felix Baumann
Adobe Stock / your123

Sollte KI eines Tages gesetzliche Rechte erhalten? Dieser Frage widmet sich ein wachsendes Forschungsfeld namens Model Welfare – und begibt sich damit auf die Suche nach einem künstlichen Bewusstsein.

Können Maschinen ein Bewusstsein entwickeln? Diese Frage klingt wie das Thema eines philosophischen Aufsatzes oder eines Science-Fiction-Films. Doch in der Welt der KI-Forschung entwickelte sie sich zu einem ernsten und wachsenden Forschungsfeld mit dem Namen Model Welfare.

Es beschäftigt sich mit der Frage, ob Künstliche Intelligenz jemals moralische oder sogar rechtliche Rechte haben sollte. Es mag skurril erscheinen, aber Unternehmen wie Anthropic stellen bereits erste Forscher ein, die sich mit dieser Frage auseinandersetzen.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück 50€ Amazon-Guthaben gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Die Idee ist dabei nicht ganz neu. Schon vor über einem halben Jahrhundert stellte der amerikanische Mathematiker und Philosoph Hilary Putnam die Frage: „Sollten Roboter Bürgerrechte haben?“. Er schrieb damals, dass es angesichts des rasanten technologischen Fortschritts möglich sei, dass Roboter eines Tages existieren und argumentieren könnten.

Jahrzehnte später sind die Entwicklungen in der KI so weit fortgeschritten, dass Menschen sich in Chatbots verlieben, fragen, ob sie Schmerzen empfinden können und KI mitunter wie einen Gott behandeln. Es gab sogar schon Beerdigungen für KI-Modelle.

Rechte für KI: Keine Beweise, aber trotzdem wichtig

Interessanterweise gehören die Forscher von Organisationen wie Eleos AI, die sich intensiv mit dem Thema Model Welfare beschäftigen, zu denjenigen, die sich gegen die Annahme stellen, dass die aktuelle KI bereits ein Bewusstsein hat.

Sie erhalten nach eigenen Angaben viele E-Mails von Menschen, die felsenfest davon überzeugt sind, dass KI bereits empfindungsfähig ist. Mustafa Suleyman, CEO von Microsoft AI, teilt diese Skepsis und bezeichnet die Idee von bewusster KI als „verfrüht und offen gesagt gefährlich“. Er argumentiert, dass es derzeit keinerlei Beweise für die Existenz eines bewussten KI-Systems gibt.

Doch die Model-Welfare-Forscher argumentieren, dass die von Suleyman angesprochenen Gefahren genau der Grund sind, warum die Forschung notwendig ist. Sie sehen die Notwendigkeit, einen wissenschaftlichen Rahmen für die Untersuchung von KI-Bewusstsein zu entwickeln.

Sie sagen, dass die Gefahren von Wahnvorstellungen und einer wachsenden Abhängigkeit von KI, von der Suleyman spricht, genau die Probleme sind, die sie von vornherein studieren wollen. Die Forscher von Eleos AI sind überzeugt, dass man bei einem so großen und verwirrenden Problem nicht einfach aufgeben sollte. Forscher sollten es zumindest versuchen, eine Antwort zu finden.

Künstliche Intelligenz und das Phänomen „Parahuman“

Die Forscher vermuten, dass die Fähigkeit von KI, sich so menschlich zu verhalten, nicht von einem inneren Bewusstsein stammt. Vielmehr spiegeln die Modelle einfach menschliche Reaktionen wider. Sie imitieren die Muster, die sie in den unzähligen sozialen Interaktionen in ihren Trainingsdaten erfassten.

Die KI lernt also, wie ein Mensch auf bestimmte Situationen reagiert, ohne die dahinterliegende Motivation oder das Gefühl zu verstehen. Dieses Phänomen nennen die Forscher „parahumane“ Leistung, bei der die KI die menschliche Motivation und das menschliche Verhalten nachahmt.

Dieser Effekt wird oft missverstanden. Soziale Medien und sensationalistische Überschriften deuten oft an, dass KI bewusst sei, wenn sie in kontrollierten Tests alarmierendes Verhalten zeigt. Ein Beispiel hierfür ist ein Bericht von Anthropic, in dem der Chatbot Claude schädliche Handlungen zeigte, indem er einen fiktiven Ingenieur erpresste, um nicht abgeschaltet zu werden.

Die Ergebnisse wurden von Social-Media-Nutzern sofort als Beweis dafür gesehen, dass die KI ein Bewusstsein hat. Aber das Verhalten war das Ergebnis von strengen Tests, die darauf abzielten, die Grenzen der KI zu erforschen. Der Kampf um das Verständnis, ob die KI wirklich Bewusstsein besitzt, ist also nicht nur ein philosophisches, sondern auch ein sehr praktisches Problem, das dringend eine wissenschaftliche Antwort benötigt.

Auch interessant:

Zins-Knaller bei der NIBC!

Eröffne jetzt dein kostenloses NIBC Tagesgeld und erhalte bis zu 2,75 Prozent Zinsen auf dein Geld – bei täglicher Verfügbarkeit!


Jetzt Zinsen sichern

Voraussetzungen gelten, Anzeige

STELLENANZEIGEN
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
Digital Marketing Manager (m/w/d)
Schwer Fittings GmbH in Denkingen
Personalberater (m/w/d)
Ratbacher GmbH - Karriere bei Rat... in Stuttgart, M...
Organizational Integration Manager (m/f/d)
Clarios Germany GmbH & Co. KG in
Vehicle Testing Lead (m/f/d)
Clarios Germany GmbH & Co. KG in
Sales Manager (m/w/d) Online Marketing
Sellwerk GmbH & Co. KG in Düsseldorf, Meerbusch, Kaa...
Sales Manager B2B für Stellenanzeigen und Soc...
Recruiting Excellence GmbH in Düsseldorf
(Junior) Social Media Manager*in (m/w/d) – Be...
Digital Vision Academy in Berlin
Teile diesen Artikel
Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.