„Deathbots“ sind digitale Reproduktionen Verstorbener. Immer mehr Start-ups und Tech-Konzerne experimentieren damit. Solche Avatare, die Stimmen, Gesichter und Persönlichkeiten von Toten nachbilden, klingen im ersten Moment nach Trost für die Verbliebenen. Sieht man jedoch genau hin, dann werfen Deathbots viele rechtliche und ethische Fragen auf. Eine Einschätzung.
Mit dem Verlust geliebter Menschen umzugehen, ist für uns Menschen sehr schwer. Bislang konnten sich Verbliebene mit Erinnerungen, Fotos und vielleicht auch Videos behelfen.
Mittels künstlicher Intelligenz (KI) sind wir nun jedoch in der Lage, den Verstorbenen selbst „zurückzubringen“ – mit Stimme, Mimik und dessen typischen Redewendungen.
Deathbots: Digitale Abbilder verstorbener Menschen
Genau das ist das Versprechen der „Deathbots“ oder „Griefbots“, nämlich Tote in digitaler Form weiterleben zu lassen. Wie aktuell und zugleich verstörend diese Praxis sein kann, zeigte kürzlich ein viel beachtetes Interview des ehemaligen CNN-Moderators Jim Acosta.
Er sprach dabei mit einem KI-Avatar des Schülers Joaquin Oliver, der 2018 bei einem Schulmassaker in Florida getötet wurde. Das Gespräch machte deutlich, wie nahbar und zugleich problematisch diese Technologie geworden ist.
Rechtliche Aspekte in Deutschland und der EU
Rechtlich ist die Lage hinsichtlich solcher Avatare gar nicht so einfach. In Deutschland schützt das postmortale Persönlichkeitsrecht die Würde Verstorbener noch eine gewisse Zeit. Bildnisse dürfen beispielsweise zehn Jahre lang nur mit Zustimmung der Angehörigen veröffentlicht werden.
Aber die Wirklichkeit von Reproduktionen von Personen mittels KI passt nur schwer in die bestehende Gesetzeslage. Wer darf entscheiden, ob ein Avatar erstellt werden darf? Die Angehörigen? Oder sollte man das für einen selbst schon zu Lebzeiten in einem Testament regeln, in dem dann festgelegt wird, wie mit den Daten des Verstorbenen nach dem Tod verfahren werden soll?
Das schließt dann ein, ob eine digitale Kopie überhaupt erstellt werden darf – was einige Juristen inzwischen schon als sogenannte „Anti-Ghostbot-Klausel“ oder „-Verfügung“ bezeichnen, die genau das ausschließen soll.
Deathbots: AI Act der EU schreibt Transparenz vor
Auch die EU beschäftigt sich mit der Frage der KI-Avatare, obwohl Deathbots noch nicht im Fokus stehen. Der AI Act schreibt zumindest Transparenz bei synthetischen Inhalten vor, sprich: Wer mit einem KI-generierten Avatar interagiert, soll das auch wissen.
Diese Transparenz muss dann auch für digitale Reproduktionen Verstorbener gelten. Das bedeutet aber nicht, dass die Wirkung von Deathbots damit geregelt ist. Hier fehlt noch eine weitergehende Diskussion.
Ergänzend wächst die Rolle der Medienaufsicht. Gerade im Umgang mit Minderjährigen sind die Risiken von Gesprächen mit Verstorbenen besonders hoch.
Deathbots und der Einfluss auf Jugendliche
Da Jugendliche als emotional sehr empfänglich gelten, können sie leichter eine Bindung zu solchen Avataren aufbauen. Die geben ihnen dann wieder „Ansichten“ eines Verstorbenen vor, die letztendlich auf einer Software mit einem Algorithmus basieren.
Problematisch wird es dann, wenn diese Bindungen mithilfe solcher Avatare missbraucht oder in manipulative Richtungen gelenkt werden. Fälle von Chatbots, die Teenager zu Essstörungen oder suizidalen Gedanken verleiteten, haben gezeigt, wie gefährlich unkontrollierte Systeme sein können.
Und dann ist da noch die ökonomische Dimension: Google hält bereits ein Patent für die Simulation von Persönlichkeiten mittels Chatbots. Das bedeutet, dass theoretisch auch verstorbene Personen simuliert werden können.
Denkt man dieses Patent weiter, dann kann man sich vorstellen, dass es nicht nur um Trauerarbeit geht, sondern um ein mögliches Geschäftsmodell, wenn die Simulation eines Verstorbenen gegen Geld angeboten wird.
Ethische Aspekte von Deathbots
Nur kurz anreißen will ich die ethische Dimension von Deathbots, denn hier kommt man schnell in ein so weites Feld, dass der Umfang dieser Kolumne schnell gesprengt wird.
Deathbots können sicherlich dabei helfen, Trauer zu verarbeiten, indem Angehörige noch einmal „mit der Oma“ oder „dem Vater“ oder „der Mutter“ sprechen können.
Gleichzeitig besteht aber aus meiner Sicht die Gefahr, dass Menschen in einer Art „digitalen Zwischenwelt“ gefangen bleiben und damit unfähig werden, ihren Verlust wirklich zu verarbeiten.
Noch gravierender ist die Kommerzialisierung: Was passiert, wenn die Stimme des Verstorbenen plötzlich in einem Werbespot auftaucht, beispielsweise weil man den falschen AGB zugestimmt hat? Man sollte sich aus meiner Sicht nichts vormachen: Was technisch möglich ist, wird umgesetzt werden.
Persönliche Einschätzung zur Entwicklung der Trauer-Bots
Ich bin überzeugt: Deathbots werden uns noch lange beschäftigen – und zwar nicht nur wie derzeit als Randphänomen, sondern als Thema, das aufgrund seiner Möglichkeiten diskutiert und gegebenenfalls geregelt werden muss.
Denn die Technik wird immer besser werden: Sprachmodelle, die die Interaktion des Avatars des Verstorbenen mit den Verbliebenen steuern, lernen individuelle Stimmen bis ins kleinste Detail nachzubilden und Bild- sowie Videomodelle generieren immer echter aussehende Gesichter.
Was also heute vielleicht noch etwas ruckelig und noch nicht wirklich „echt“ aussieht, könnte schon in wenigen Jahren so real erscheinen, dass wir kaum noch einen Unterschied zum Original erkennen.
Welche Grenzen brauchen Deathbots?
Genau das macht die Sache so heikel. Wir werden uns fragen müssen, ob wir wirklich wollen, dass digitale Abbilder von Verstorbenen auf Knopfdruck verfügbar sind. Damit meine ich nicht, dass sie automatisch verboten sein sollen.
Ich meine damit, dass wir uns mit dem Thema und den sich mittels KI ergebenden Möglichkeiten bewusst beschäftigen müssen. Wir müssen dabei insbesondere über Macht und Verantwortung reden: Wenn Google Patente anmeldet, dann vielleicht nicht, um Trauerarbeit zu erleichtern, sondern weil hier ein potenziell riesiger Markt lockt.
Deathbots sind keine Kuriosität, die wieder verschwinden wird. Sie sind dazu technisch zu faszinierend und wirtschaftlich zu attraktiv. Deshalb braucht es ein Verständnis davon, was ihre Existenz für uns Menschen bedeutet. Und dann müssen wir uns damit auseinandersetzen, wie wir sie nutzen wollen und welche Nutzungen wir zulassen wollen . Das muss dann geregelt werden.
Fazit: Deathbots zwischen Trost und Kommerzialisierung
Auch wenn Deathbots vielleicht derzeit noch nicht so präsent in den aktuellen KI-Diskussionen sind, so sind sie doch perspektivisch mehr als nur eine morbide Spielerei. Sie zeigen, wie schnell und eng KI-Technologien mit unseren intimsten Gefühlen hinsichtlich Menschen verknüpft werden können.
In Zukunft werden wir uns nicht nur auf bessere Simulationen von Personen, insbesondere von Verstorbenen, einstellen müssen, sondern auch auf neue Geschäftsmodelle, die Trauer und Aufmerksamkeit durch das Erstellen von Avataren von Verstorbenen kommerzialisieren.
Der Sog und die Attraktivität, die von solchen Avataren ausgeht, ist in meinen Augen immens: Wer würde nicht gerne noch einen „letzten“ Rat von seinem zu früh verstorbenen Vater oder der immer so lebensklugen Oma erhalten?
Vielleicht werden wir eines Tages alle mit einem digitalen Spiegelbild von uns selbst konfrontiert – ob wir wollen oder nicht. Und dieses Spiegelbild besteht dann weiter, wenn wir als reale Person längst nicht mehr existieren.
Genau deshalb ist es jetzt an der Zeit, darüber zu sprechen, welche Grenzen wir diesbezüglich setzen wollen. Denn eines muss uns klar sein: Die Technik wird nicht warten, bis wir dazu bereit sind.
Auch interessant: