Künstliche Intelligenz (KI) übernimmt komplexe Aufgaben oft schneller und präziser als Menschen. Das führt zur Kernfrage: Ist der Status als einfaches Werkzeug noch zeitgemäß? Ob die KI als Rechtsperson behandelt werden sollte, damit sie selbst Verträge schließen und haften kann – eine Auseinandersetzung.
Künstliche Intelligenz (KI) schreibt Texte, analysiert Daten und trifft Entscheidungen – regelmäßig schneller, präziser und unbeirrter als Menschen. Wenn KI doch aber so viel kann, warum behandeln wir sie rechtlich dann immer noch nur wie ein einfaches Werkzeug?
Was ich damit meine ist: Warum ist KI eigentlich kein Rechtssubjekt mit eigener Rechtspersönlichkeit, das selbst Verträge schließen und haften kann und damit Träger oder Adressat von Rechten und Pflichten wäre?
KI und die Frage der Rechtsperson
Es überrascht nicht, dass diese Idee inzwischen sogar in wissenschaftlichen Aufsätzen durchdacht wird, denn KI-Systeme übernehmen zunehmend Aufgaben, die bislang Menschen vorbehalten waren.
Es ist also naheliegend zu überlegen, ob KI nicht rechtlich gesehen „menschenähnlich“, also als eine Person im rechtlichen Sinne, einzustufen ist. Bevor wir jedoch vorschnell „Warum nicht?“ rufen, sollten wir uns fragen, was Rechtsperson im Kern eigentlich bedeutet – und ob es tatsächlich sinnvoll wäre, KI damit auszustatten.
Juristische Personen: Ein menschliches Konstrukt
Rechtspersonen sind gemacht von Menschen. KI zur Rechtsperson zu machen ist gar nicht so abwegig, denn ähnliche Konstrukte gibt es schon, wie die GmbH oder den Verein. Eine GmbH ist dabei natürlich keine echte Person, die fühlt oder denkt. Wir betrachten sie als sogenannte „juristische Person“, indem wir sie gesetzlich zu einer „Person“ erklären.
Dadurch erhält eine GmbH Handlungsfähigkeit, also beispielsweise die Fähigkeit, Vermögen zu besitzen, zu haften und über ihre Organe wie den Geschäftsführer einen „juristischen Willen“ zu äußern.
Sie ist damit ein rechtliches Konstrukt, eine Organisationsform, ein Gefäß, in das Menschen ihre wirtschaftlichen Interessen einfüllen und so ihr menschliches Handeln strukturieren und bündeln.
Daraus ergibt sich die verlockende Frage: Wenn wir einer GmbH per Gesetz Rechtspersönlichkeit geben können, warum nicht auch einer KI? Ich will schon einmal meinen Ansatz vorwegnehmen: Eine GmbH ist eine Organisation von Menschen. KI dagegen ist ein technisches System, das durch Menschen geschaffen und kontrolliert wird.
Brauchen wir eine KI-Rechtsperson?
Um ein Bild zu nutzen: Eine GmbH ist wie ein Schiff, eine KI dagegen eines der Werkzeuge an Bord. Diese Unterscheidung ist meiner Ansicht nach zentral, wenn wir darüber nachdenken, ob KI eine „Rechtsperson“ werden könnte.
Die Debatte dreht sich nämlich gar nicht darum, ob KI „menschenähnlich“ sei. Das ist sie nicht. KI ist ein komplexes Wahrscheinlichkeitsberechnungsprogramm ohne eigene Intention.
Entscheidend ist vielmehr eine andere Frage, nämlich: Brauchen wir KI als Rechtsperson, um ein tatsächlich bestehendes Problem besser zu lösen als ohne ein solches Konstrukt? Die Antwort wäre dann „Ja.“, wenn wir zwingend antworten müssten: Ohne KI als juristische Person bekommen wir bestimmte Konstellationen und Situationen nicht effizient geregelt.
Solange die Antwort auf diese Frage aber „Nein“ lautet, wäre eine KI-Rechtsperson vor allem ein Experiment mit ungewissem Ausgang – eines, das eine neue Komplexität erzeugen würde, ohne bestehende Probleme tatsächlich zu lösen.
KI als Rechtsperson: Grenzen des bestehenden Rahmens
Es mag vielleicht überraschen, aber mit den meisten KI-Anwendungen können wir anhand des bestehenden rechtlichen Ordnungsrahmens gut umgehen. Wenn ein Sprachmodell (LLM) zum Beispiel fehlerhafte Ergebnisse erzeugt, haftet nicht die KI, sondern der Erzeuger oder Verwender, je nach Rolle und Verantwortungsbereich.
Ähnliches gilt beispielsweise bei technischen Assistenzsystemen in einem Auto: Fehler lösen Haftungsfragen bei Fahrer oder Hersteller aus, nicht bei der KI selbst. Das System bleibt ein Werkzeug, und das Recht behandelt es als solches. Jetzt darf man natürlich nicht übersehen, dass wir uns auf Szenarien zubewegen, in denen diese klaren Zuordnungen schwieriger werden.
Zukünftige Haftungsprobleme autonomer Systeme
Autonome Drohnenflotten beispielsweise planen selbständig Lieferwege, KI-Agenten handeln im Millisekundentakt Strom- oder Emissionszertifikate und Smart-City-Systeme verarbeiten Milliarden an Sensordaten ohne menschliches Zutun.
Wer verursacht welche Schäden? Damit sind nicht die KI-Systeme gemeint, sondern die hinter den Systemen stehenden Nutzer – und wer haftet wofür? Was passiert, wenn autonome KI-Systeme einander beeinflussen oder unvorhersehbare Kaskadeneffekte auslösen?
Wer kann noch nachvollziehen und kontrollieren, wenn globale, vernetzte KI-Systeme Fehler erzeugen, die aufgrund ihrer Komplexität kaum noch verstanden werden? Es sind genau diese Grenzfälle, bei denen sich die Frage stellt, ob nicht KI mit eigener Rechtspersönlichkeit Nutzen bringen würde.
Voraussetzungen für eine legitime KI-Rechtsperson
Es ist ein leichtes, morgen ein Gesetz zu verabschieden, das bestimmte KI-Systeme zu juristischen Personen erklärt. Vertretbar wäre das jedoch meiner Ansicht nach nur, wenn mehrere grundlegende Bedingungen erfüllt wären.
1. Nachweis eines echten Regelungsdefizits
Die erste und wichtigste Voraussetzung wäre ein echtes Regelungsdefizit. Es muss also Situationen geben, in denen wir mit den bestehenden Regelungen nicht mehr effizient weiterkommen.
Ich würde jedoch sagen, dass aktuell viel dafür spricht, dass eine Kombination aus klaren Betreiberpflichten, Dokumentationsstandards, Haftungsregeln und gegebenenfalls Pflichtversicherungen ausreicht oder zumindest so ausgebaut werden kann, dass die Schaffung einer neuen juristischen Person „KI“ nicht erforderlich ist.
2. Verbot vin KI als Haftungsschild
Zweitens darf eine KI-Rechtsperson nicht als eine Art „Haftungsschild“ dienen. Was meine ich damit? Schon heute hört man immer öfter den Satz: „Das hat unsere KI entschieden.“
Ein rechtlicher Personenstatus könnte diese Tendenz zur Verantwortungsauslagerung verstärken. Rechtspersönlichkeit darf aber nicht zur „Flucht“ aus der Verantwortung werden.
3. Transparenz, Kill-Switch und Abgrenzung zu moralischen Rechten
Drittens müsste eine KI-Rechtsperson einer wirksamen Steuerung und Kontrolle unterliegen. Anders als bei einer GmbH oder einem Verein, deren Handeln über Organe gesteuert werden, wären KI-Systeme ohne klare technische und organisatorische Begrenzungen nicht geeignet, als Rechtssubjekte zu agieren.
Notwendig wären vollständige Überprüfbarkeit der Funktionsweise, Governance-Strukturen, umfassende Überwachung und insbesondere ein funktionierender „Kill-Switch“, also eine Funktion zum Ausschalten einer KI.
Das ist aber gar nicht gegeben (der Begriff dazu lautet „Black Box“), wie Wissenschaftler von Google oder Sam Altman von OpenAI schon zugegeben haben. Ohne diese Steuerung und Kontrolle wäre eine Integration von KI als Rechtsperson in das bestehende Rechtssystem riskant oder sogar unmöglich.
4. Klare Trennlinie zwischen juristischen und moralischen Rechten von KI
Schließlich, und da bewegen wir uns weg von einer rechtlichen Argumentation, müsste eine klare Abgrenzung zu „moralischen Rechten“ bestehen. Wenn KI mit Rechtspersönlichkeit versehen wird, dann muss klar sein, dass es nicht um Würde, Empfindungsfähigkeit oder menschenähnliche Rechte geht.
Sonst verwischen notwendige Grenzen und die gesellschaftliche Erwartungshaltung verschiebt sich in eine falsche Richtung. Das ist bei einer GmbH oder einem Verein noch einleuchtend. Bei einer KI, insbesondere einem LLM, das ähnlich wie ein Mensch antwortet, wird diese Ansicht schon schwieriger.
KIA: Eine KI-Rechtsperson als Gedankenexperiment
Wenn wir nun dennoch einmal annehmen, wir wollten KI mit Rechtspersönlichkeit ausstatten und sie damit selbst zum Träger und Adressaten von Rechten und Pflichten machen, dann stellt sich die Frage, wie diese Umsetzung aussehen könnte. Um dieses Gedankenexperiment greifbarer zu machen nenne ich diese Form von KI „KI-Agenteneinheit (KIA)“.
Eine KIA könnte klagen, verklagt werden und Vermögen halten. Gegründet würden sie durch Menschen oder Unternehmen, die die KI-Systeme als technischen Funktionskern bereitstellen. Es müsste eine menschliche Geschäftsführung geben, die überwacht, kontrolliert und letztlich verantwortlich bleibt.
Die KIA dürfte nur innerhalb eines eng definierten, satzungsmäßigen Rahmens autonom handeln. Sie wäre selbst Haftungsträgerin. Deshalb müsste Kapital hinter ihr stehen oder eine Pflichtversicherung. Missbräuchliche Konstruktionen würden zu Durchgriffshaftung führen, sodass Menschen trotz der KIA-Struktur nicht aus ihrer Verantwortung entlassen werden.
Ein solches Modell hätte auf den ersten Blick Vorteile. Es gäbe gesetzlich klar geregelte Verantwortungsstrukturen, ein Haftungsregime, einen eindeutigen Ansprechpartner für Geschädigte und ein standardisiertes Modell für autonome, hochskalierte KI-Systeme.
Ein Beispiel wäre die schon oben genannte autonome Lieferdrohnen-Flotte. Statt einer unübersichtlichen Kette von Verantwortlichen würde eine KIA als Vertragspartner und Haftungsträger auftreten. Die KI steuert technisch, die KIA haftet rechtlich, und die menschlichen Organe überwachen den Betrieb.
Fehlender zwingender Mehrwert und erhöhte Komplexität
Dennoch fehlt mir die zwingende Antwort auf die Frage, welchen Mehrwert eine solche Konstruktion bringt. Für die meisten bestehenden KI-Systeme gilt: Die Technologien sind steuerbar, Risiken sind bekannt, Verantwortlichkeiten können geklärt werden, Versicherungen können greifen und Betreiber haften. Eine KI-Rechtsperson würde diesen Zustand eben nicht automatisch verbessern.
Sie würde ihn eher komplizierter machen: zusätzliche Regulierung, neue Aufsichtsstrukturen, neue Versicherungsfragen und insgesamt mehr Unsicherheit.
Und noch ein letzter Punkt sollte nicht übersehen werden, nämlich die Frage nach der Verschiebung von Verantwortung. Wenn KI personifiziert wird, dann fällt es leichter, Verantwortung nach außen, an KI, abzugeben. Eine juristische Person darf nicht dafür verwendet werden, Handlungen von menschlichen Akteuren zu verstecken.
Fazit: KI als Rechtsperson ist derzeit die falsche Antwort
Künstliche Intelligenz zur Rechtsperson zu machen, ist – dessen bin ich mir bewusst – ein faszinierender Gedanke. Er zeigt, wie sehr KI unsere Vorstellung von Verantwortung, Organisation und Haftung herausfordert.
Und er zwingt uns, die richtigen Fragen zu stellen: Wo stoßen wir mit heutigen Rechtsmodellen an Grenzen? Wie verhindern wir die Delegation von Verantwortung an Maschinen? Wie organisieren wir Haftung im KI-Zeitalter?
Meiner Ansicht nach jedoch wäre eine KI-Rechtsperson heute die falsche Antwort. Wir sollten zuerst klären, ob und welchen realen Mehrwert eine solche Rechtspersönlichkeit hat.
Ich will nicht ausschließen, dass eine juristische Person „KI“ eines Tages sinnvoll werden könnte, wenn die Umstände solch ein Konstrukt erfordern. Das Recht hat sich schon immer an sich verändernde Gegebenheiten angepasst.
Bis dahin jedoch sollte gelten: Ob KI eine Rechtsperson werden kann oder sollte, ist gar nicht entscheidend. Wichtiger ist vielmehr die Diskussion darüber, ob dies uns Menschen tatsächlich Vorteile bringt und ob wir damit Verantwortung verschieben, anstatt klar festzulegen, wer sie zu tragen hat.
Auch interessant:









