Sollte KI eines Tages gesetzliche Rechte erhalten? Dieser Frage widmet sich ein wachsendes Forschungsfeld namens Model Welfare – und begibt sich damit auf die Suche nach einem künstlichen Bewusstsein.
Können Maschinen ein Bewusstsein entwickeln? Diese Frage klingt wie das Thema eines philosophischen Aufsatzes oder eines Science-Fiction-Films. Doch in der Welt der KI-Forschung entwickelte sie sich zu einem ernsten und wachsenden Forschungsfeld mit dem Namen Model Welfare.
Es beschäftigt sich mit der Frage, ob Künstliche Intelligenz jemals moralische oder sogar rechtliche Rechte haben sollte. Es mag skurril erscheinen, aber Unternehmen wie Anthropic stellen bereits erste Forscher ein, die sich mit dieser Frage auseinandersetzen.
Die Idee ist dabei nicht ganz neu. Schon vor über einem halben Jahrhundert stellte der amerikanische Mathematiker und Philosoph Hilary Putnam die Frage: „Sollten Roboter Bürgerrechte haben?“. Er schrieb damals, dass es angesichts des rasanten technologischen Fortschritts möglich sei, dass Roboter eines Tages existieren und argumentieren könnten.
Jahrzehnte später sind die Entwicklungen in der KI so weit fortgeschritten, dass Menschen sich in Chatbots verlieben, fragen, ob sie Schmerzen empfinden können und KI mitunter wie einen Gott behandeln. Es gab sogar schon Beerdigungen für KI-Modelle.
Rechte für KI: Keine Beweise, aber trotzdem wichtig
Interessanterweise gehören die Forscher von Organisationen wie Eleos AI, die sich intensiv mit dem Thema Model Welfare beschäftigen, zu denjenigen, die sich gegen die Annahme stellen, dass die aktuelle KI bereits ein Bewusstsein hat.
Sie erhalten nach eigenen Angaben viele E-Mails von Menschen, die felsenfest davon überzeugt sind, dass KI bereits empfindungsfähig ist. Mustafa Suleyman, CEO von Microsoft AI, teilt diese Skepsis und bezeichnet die Idee von bewusster KI als „verfrüht und offen gesagt gefährlich“. Er argumentiert, dass es derzeit keinerlei Beweise für die Existenz eines bewussten KI-Systems gibt.
Doch die Model-Welfare-Forscher argumentieren, dass die von Suleyman angesprochenen Gefahren genau der Grund sind, warum die Forschung notwendig ist. Sie sehen die Notwendigkeit, einen wissenschaftlichen Rahmen für die Untersuchung von KI-Bewusstsein zu entwickeln.
Sie sagen, dass die Gefahren von Wahnvorstellungen und einer wachsenden Abhängigkeit von KI, von der Suleyman spricht, genau die Probleme sind, die sie von vornherein studieren wollen. Die Forscher von Eleos AI sind überzeugt, dass man bei einem so großen und verwirrenden Problem nicht einfach aufgeben sollte. Forscher sollten es zumindest versuchen, eine Antwort zu finden.
Künstliche Intelligenz und das Phänomen „Parahuman“
Die Forscher vermuten, dass die Fähigkeit von KI, sich so menschlich zu verhalten, nicht von einem inneren Bewusstsein stammt. Vielmehr spiegeln die Modelle einfach menschliche Reaktionen wider. Sie imitieren die Muster, die sie in den unzähligen sozialen Interaktionen in ihren Trainingsdaten erfassten.
Die KI lernt also, wie ein Mensch auf bestimmte Situationen reagiert, ohne die dahinterliegende Motivation oder das Gefühl zu verstehen. Dieses Phänomen nennen die Forscher „parahumane“ Leistung, bei der die KI die menschliche Motivation und das menschliche Verhalten nachahmt.
Dieser Effekt wird oft missverstanden. Soziale Medien und sensationalistische Überschriften deuten oft an, dass KI bewusst sei, wenn sie in kontrollierten Tests alarmierendes Verhalten zeigt. Ein Beispiel hierfür ist ein Bericht von Anthropic, in dem der Chatbot Claude schädliche Handlungen zeigte, indem er einen fiktiven Ingenieur erpresste, um nicht abgeschaltet zu werden.
Die Ergebnisse wurden von Social-Media-Nutzern sofort als Beweis dafür gesehen, dass die KI ein Bewusstsein hat. Aber das Verhalten war das Ergebnis von strengen Tests, die darauf abzielten, die Grenzen der KI zu erforschen. Der Kampf um das Verständnis, ob die KI wirklich Bewusstsein besitzt, ist also nicht nur ein philosophisches, sondern auch ein sehr praktisches Problem, das dringend eine wissenschaftliche Antwort benötigt.
Auch interessant: