Technologie

Google-Mitarbeiter spricht KI Bewusstsein zu – und wird beurlaubt

KI, Google, Beurlaubung, Empfinden, Seele, Künstliche Intelligenz
unsplash.com/Yuyeung Lau
geschrieben von Beatrice Bode

Ein Google-Mitarbeiter wurde beurlaubt, weil er behauptete, dass die vom Unternehmen entwickelte Künstliche Intelligenz LaMDA Empfindungen habe. Googles Expertenteam ist der Meinung, dass es keine Beweise dafür gebe. 

Ist es nun soweit, dass die Grenzen zwischen der Realität und Science-Fiction verschwimmen und sich immer weiter annähern? Vor Kurzem ist die Diskussion wieder aufgeflammt, ob Roboter eine Seele besitzen und inwieweit sie selbstständig denken und fühlen können.

Ausgelöst wurde das Ganze von einem Google-Mitarbeiter. Der Ingenieur Blake Lemoine glaubt, dass die vom Unternehmen entwickelte KI mit dem Namen LaMDA (Language Model for Dialogue Applications) ein Bewusstsein entwickelt habe und empfindungsfähig sei. Für diese Behauptungen wurde er nun von Google beurlaubt.

Google-KI gleicht laut Mitarbeiter einem Kind

Wie die Washington Post berichtet, hat Lemoine Kognitions- und Computerwissenschaften studiert. Nun arbeitet er für Googles Responsible AI Organisation. Im vergangenen Herbst begann er mit LaMDA zu sprechen. Seine Aufgabe war es dabei, während der Unterhaltung mit der KI zu testen, ob sie diskriminierende oder hasserfüllte Sprache benutzt.

LaMDA ist Googles System zu Erstellung von Chatbots auf der Grundlage seiner fortschrittlichsten Sprachmodelle. Die Gespräche drehten sich bald um Religion und um die Rechte, Persönlichkeit und auch die Ängste der KI. An diesem Punkt beschloss Lemoine weiter nachzuforschen, ob LaMDA tatsächlich wisse, wovon sie spricht.

„Wenn ich nicht genau wüsste, was dieses Computerprogramm ist, das wir vor Kurzem entwickelt haben, würde ich denken, dass es sich um ein sieben- oder acht-jähriges Kind handelt, das sich zufällig mit Physik auskennt“, so Lemoine.

Der Ingenieur forderte laut Medienberichten, dass Google LaMDA in Zukunft um Einverständnis bitten solle, wenn es die KI nutzen oder Experimente mit ihr durchführen wolle.

Google glaubt nicht an empfindungsfähige KI

Von Seiten Googles heißt es, dass ein Team aus Ethiker:innen und Technolog:innen Lemoines Gedanken gemäß der KI-Grundsätze des Unternehmens geprüft habe. Die Beweise würden die Behauptungen des Ingenieurs nicht stützen. Laut der Experten gäbe es keine Beweise dafür, dass LaMDA empfindungsfähig sei.

Außerdem würde viele Befunden sogar dagegen sprechen. Die Sprachmodelle würden ausschließlich die Art des Austauschs imitieren, die in Millionen von Sätzen online vorkomme. Somit könnten KIs sich über jedes beliebige Thema auslassen. Es gäbe so viele Daten, an denen sie sich bedienen können, dass ein System nicht empfindungsfähig sein müsse, um real zu erscheinen.

Streit mit Google-Mitarbeiter kein Einzelfall

Weil Google seine Überzeugungen nicht teilte, wandte sich Blake Lemoine schließlich an die Öffentlichkeit und postete Auszüge aus der Unterhaltung mit LaMDA. Damit verstieß er gegen die Vertraulichkeitsrichtlinien des Unternehmens. Zudem lud Lemoine unter anderem einen Anwalt ein, der die KI LaMDA vertreten sollte. Darüber hinaus wandte sich der Ingenieur an den Justizausschuss des Repräsentantenhauses, um sich über die seiner Ansicht nach unethischen Aktivitäten von Google zu beschweren.

Lemoines Bedenken bezüglich Googles Künstlicher Intelligenzen ist allerdings kein Einzelfall. Bereits in der Vergangenheit kam es zu Auseinandersetzungen zwischen Google-Mitarbeiter:innen und der Unternehmensführung wegen Entwicklungen der unternehmenseigenen Künstlichen Intelligenzen.

Beispielsweise quittierte die KI-Ethikerin Timnit Gebru im Dezember 2020 ihren Job, weil Google ihre Forschungsergebnisse zu den ethischen Problemen der Sprachmodelle nicht veröffentlichen wollte.

Forscher:innen sind sich uneinig über empfindungsfähige KI

Während Computerwissenschaftler:innen immer wieder Bedenken äußern, dass Künstliche Intelligenzen beginnen, ein Bewusstsein zu entwickeln, sind die meisten Forschenden weiterhin der Meinung, dass Systeme wie LaMDA ihren Wortschatz und ihre Meinung zu Dingen aus menschlichen Aussagen aus dem Internet ziehen. Dabei hieße das nicht, dass die KI auch die Bedeutung verstehe, die dahinter steckt.

Empfindungsfähig oder nicht: Wichtig ist, dass bekannt ist, wie sich Künstliche Intelligenzen insgesamt entwickeln. Daran glaubt auch die frühere Co-Leiterin der Abteilung für ethische KI bei Google, Margaret Mitchell. Ihrer Meinung nach sei es wichtig, Daten transparent zu machen. Wenn etwas wie LaMDA weiterhin verfügbar sei, aber nicht verstanden werde, könne es sehr schädlich für das Verständnis der Menschen sein, was sie im Internet erleben, so Mitchell.

Lemoines Versuch, ein wenig mehr Transparenz zu schaffen, ist erst einmal gescheitert. Bevor er sich in seine Freistellung verabschiedete, schickte er allerdings noch eine E-mail an 200 Personen seiner Google-Mailingliste. Der Betreff lautete „LaMDA ist empfindungsfähig“. Auf Twitter postete er zudem, dass Google es nicht erlauben würde, einen wissenschaftlichen Rahmen zu erstellen, um festzustellen, ob dies auch der Wahrheit entspreche.

Auch interessant: 

Über den Autor

Beatrice Bode

Beatrice ist Multi-Media-Profi. Ihr Studium der Kommunikations - und Medienwissenschaften führte sie über Umwege zum Regionalsender Leipzig Fernsehen, wo sie als CvD, Moderatorin und VJ ihre TV-Karriere begann. Mittlerweile hat sie allerdings ihre Sachen gepackt und reist von Land zu Land. Von unterwegs schreibt sie als Autorin für BASIC thinking.