Technologie

OpenAI-Forscher warnten Vorstand vor bedrohlicher KI-Entdeckung

OpenAI, KI, Künstliche Intelligenz, Forscher, Bedrohung, bedrohliche Entdeckung
Adobe Stock/ Sikov
geschrieben von Fabian Peters

Vor dem Rauswurf von Sam Altman hat das Forschungsteam von OpenAI den Vorstand offenbar vor einer bedrohlichen KI-Entdeckung gewarnt. Laut einem internen Brief stelle diese eine Bedrohung für die Menschheit dar. Die Entdeckung habe unter anderem zur Entlassung von Altman geführt. 

Bevor OpenAI seinen Mitbegründer und CEO Sam Altman für vier Tage entlassen hatte, schrieb das Forschungsteam des Unternehmens offenbar einen Brief an den Vorstand. Darin warnten sie vor einer mächtigen KI-Entdeckung, die eine Bedrohung für die Menschheit darstelle.

Das geht aus einem Bericht der Nachrichtenagentur Reuters unter Berufung auf zwei Insider hervor. Der bislang nicht öffentlich einsehbare Brief habe demnach zur Entlassung von Altman geführt. Nachdem Mitarbeiter und Investoren auf die Barrikaden gingen, sitzt Sam Altman nun jedoch wieder im Chefsessel.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Home Office
Junior Content Manager (m/w/d) Social Media & Online Marketing
meinestadt.de in Ainring
Video Content Creator & Social Media Manager
Wagner Spezialschmierstoffe GmbH & Co. KG in Wechingen

Alle Stellenanzeigen


OpenAI: KI-Entdeckung stellt laut Forschern Bedrohung für Menschheit dar

Das Schreiben sei den Insidern zufolge Teil einer Liste über Beschwerden des Vorstandes gewesen. Darunter auch: Bedenken über die Kommerzialisierung von KI, bevor die Konsequenzen klar sind. Laut Reuters lehnte OpenAI eine Stellungnahme ab.

In einer internen Nachricht an seine Mitarbeiter habe das Unternehmen laut der Quelle jedoch von einem Projekt namens „Q*“ (ausgesprochen Q-Star) im Zusammenhang mit den Ereignissen am Wochenende gesprochen. Das Modell könne demnach einen Durchbruch im Bereich Artificial General Intelligence (AGI) sein.

Projekt „Q*“: Hat OpenAI eine Super-KI entwickelt?

OpenAI definiert AGI als ein KI-System, das über seine Datensätze hinausgehen und den Menschen übertreffen könne. Das Modell sei außerdem in der Lage, mathematische Aufgaben zu lösen. Forscher sahen in der Mathematik bislang eine Grenze in der Entwicklung von Künstlicher Intelligenz.

Wenn eine KI es schaffen würde, mathematische Probleme zu lösen, könne sie eine Denkfähigkeit entwickeln, die der des Menschen ähnelt. Eine solche Künstliche Intelligenz sei in der Lage zu lernen und zu verstehen. Die OpenAI-Forscher warnten den Vorstand in ihrem Brief offenbar wiederum vor den Gefahren einer AGI.

Laut Reuters kündigte Sam Altman auf einer Konferenz in San Francisco kürzlich an, dass große Fortschritte im Bereich KI in Sicht seien. Nur einen Tag vor seine zweischenzeitlichen Entlassung sagte er dort:

Viermal in der Geschichte von OpenAI, zuletzt in den letzten Wochen, durfte ich dabei sein, wenn wir den Schleier der Unwissenheit lüften und die Grenzen der Entdeckung erweitern, und das zu tun, ist die berufliche Ehre meines Lebens.

Auch interessant: 

Über den Autor

Fabian Peters

Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).