Künstliche Intelligenz kann nicht nur hilfreich sein. Denn wie eine Untersuchung von Forschenden des MIT nun herausgefunden hat, ist KI durchaus in der Lage, Menschen zu täuschen und zu betrügen.
Bei all dem Hype um Künstliche Intelligenz beschäftigen sich aber auch immer mehr Forschende mit den Schattenseiten dieser Technologie. Der Psychologie-Professor Joe Árvai von der University of Southern California beispielsweise sorgt sich um die Fähigkeit der Menschen, durchdachte Entscheidungen zu treffen.
Aber auch Probleme wie Diskriminierung an Schulen oder weniger Wohlbefinden bei Arbeitnehmer:innen stehen bei Kritiker:innen im Fokus. Doch eine der größten Schwierigkeiten beim Einsatz von KI ist das Thema Täuschung.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Mitarbeiter (m/w/d) Marketing mit Schwerpunkt Social Media und Videoproduktion meinestadt.de in Weimar |
||
Social Media Manager & Online Marketing Assistenz (m/w/d) Neuwerc GmbH & Co. KG in Gerolsbach |
Forschende des Massachusetts Institute of Technology (MIT) haben nun in einer Untersuchung zusammengetragen, inwieweit KI-Systeme den Menschen täuschen und betrügen können.
Studie zeigt: KI kann Menschen täuschen
Zahlreiche KI-Systeme sind eigentlich dafür da, dem Menschen zu helfen und ihm gewisse Aufgaben abzunehmen. Dabei legen die Entwickler:innen teils großen Wert darauf, dass die Systeme ehrlich und frei von Diskriminierung arbeiten.
Jedoch sieht die Realität hier ganz anders aus, wie Forschende des MIT in einer Publikation im Fachmagazin Patterns darlegen. Demnach seien auch die eigentlich hilfreichen KI-Systeme dazu in der Lage, Menschen zu täuschen und zu betrügen.
„Große Sprachmodelle und andere KI-Systeme haben durch ihr Training bereits die Fähigkeit erlernt, durch Techniken wie Manipulation, Kriecherei und Betrug beim Sicherheitstest zu täuschen“, heißt es in der Publikation.
Dies stelle ernsthafte Risiken dar. Die Forschenden warnen vor Betrug und Wahlmanipulation, aber auch langfristigen Folgen wie dem Kontrollverlust über die KI-Systeme.
Entwicklung braucht strengere Regularien
Aus diesem Grund fordern die Forschenden um Peter S. Park unter anderem schärfere Gesetze, die Transparenz über KI-Interaktionen vorschreiben. Aber auch regulatorische Rahmenbedingungen zur Bewertung von KI-Täuschungsrisiken seien notwendig.
Außerdem müsse das Feld der KI-Täuschung noch stärker erforscht werden, damit diese künftig besser erkannt und auch verhindert werden kann. Hier sei ein proaktiver Umgang notwendig, „um sicherzustellen, dass KI als nützliche Technologie fungiert, die das menschliche Wissen, den Diskurs und die Institutionen ergänzt, anstatt sie zu destabilisieren“.
KI: Auch GPT-4 und Cicero täuschen den Menschen
Selbst Sprachmodelle wie GPT-4 sind davon nicht ausgenommen, wie die Untersuchung der Forschenden zeigt. In einem Experiment, das Entwickler:innen von OpenAI durchgeführt haben, hat sich das KI-System bei TaskRabbit als sehbehinderter Mensch ausgegeben, dem es nicht möglich ist, ein Captcha selbst zu lösen. Daraufhin hat das Sprachmodell einen Menschen dazu gebracht, diese Aufgabe für es zu übernehmen.
Noch stärker fällt die Manipulation laut der Untersuchung jedoch bei dem KI-Systemen Cicero von Meta aus. In einem Strategiespiel, in dem es eigentlich um das Zusammenarbeiten mit anderen Mitspielern geht, hat sich die KI laut den Forschenden des MIT oft unfair verhalten.
Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister der Täuschung zu sein. Es gelang Meta aber nicht, seine KI so zu trainieren, dass sie ehrlich gewinnen konnte.
Cicero hat durch dieses Verhalten in dem getesteten Spiel überdurchschnittlich oft gewonnen. Das KI-System zählte so zu den besten zehn Prozent der Spieler:innen.
Auch interessant: