Mit Galactica hat Facebook-Mutterkonzern Meta ein neues Sprachmodell entwickelt, das unter anderem wissenschaftliche Texte zusammenfassen soll. Doch das scheint offenbar nicht wie gewünscht zu funktioniert. Das Unternehmen nahm eine Demo nach nur drei Tagen wieder offline.
Viele Technologie-Konzerne jagend aktuell einem Trend hinterher: der Künstlichen Intelligenz (KI). Denn geht es nach Google, Meta und Co. sollen uns KI-Systeme künftig den Alltag erleichtern. Meta musste nun aber feststellen, dass das nicht immer wie geplant funktioniert.
Das hauseigene Sprachmodell Galactica war aufgrund von technischen Problemen nämlich gerade einmal drei Tagen online. Ähnlich wie andere Systeme basiert es dabei auf einem großen Wortschatz, wobei ein Algorithmus ständig dazu lernt. Dank solcher Modelle schrieben KI-Systeme bereits Bücher oder Zeitungsartikel. .
Neue Stellenangebote
Referent Marketing – Kommunikation / Social Media / IT Branche (m/w/d) mbi GmbH in Wetzlar |
||
Event Manager – live experience / Social Media / Konzeption (m/w/d) KundenbüroHH GmbH & Co. KG in Hamburg |
||
Mitarbeiter:in Social Media & PR (m/w/x) Hochschule Reutlingen in Reutlingen |
Meta möchte mit Sprachmodell wissenschaftliche Texte zusammenfassen
Doch dass diese Systeme nicht immer reibungslos funktionieren, musste nun auch Facebook-Mutterkonzern Meta feststellen. Das Unternehmen trainierte sein Sprachmodell Galactacia mit über 48 Millionen wissenschaftlichen Artikeln, Büchern, Vorlesungen, Webseiten und Enzyklopädien. Ziel dabei war es, wissenschaftliche Veröffentlichungen zusammenfassen.
Unter anderem kann das Modell Matheprobleme lösen, Wikipedia-Artikel generieren, Moleküle und Proteine abbilden und wissenschaftlichen Code schreiben. Doch eine Herausforderung überwand Galactica nicht: die Unterscheidung von Fakten und Lügen. Denn erste öffentliche Tests machten deutlich, dass die KI abenteuerliche Texte über Bären im Weltraum erfand.
Galactica: Algorithmus kann Fakten und Lügen nicht unterscheiden
Das Problem dabei ist, dass dem System eine Unterscheidung zwischen Wahrheit und Lüge schwierig fällt. Menschen, die nicht tief in den Themenkomplexen stecken, erhalten wissenschaftliche Papiere, die kaum Wahrheiten enthalten. Gleichzeitig nennt Meta aber Autoren, auf die sich der Algorithmus stützt. Für Laien entstehen somit legitime Texte ohne solides Fundament.
Meta zog daraufhin die öffentliche Version nach gerade einmal drei Tagen zurück und will an den vielen gemeldeten Problemen weiterhin arbeiten. Neben den Lügen, die Galactica verbreitet, lässt sich auch keine Zusammenfassung zu für Meta „problematischen“ Themen generieren – darunter etwa Rassismus und AIDS.
Auch interessant:
- Tweet Hunter: Diese Künstliche Intelligenz sagt deine Tweets voraus
- Künstliche Intelligenz soll gefährdete Vögel vor Windrädern schützen
- Klimaschutz: Alphabet will mithilfe von KI Algen-Ökosysteme retten
- Essen bestellen per Chatbot: So arbeitet die KI-Agentur we-do.ai
Neue Stellenangebote
Referent Marketing – Kommunikation / Social Media / IT Branche (m/w/d) mbi GmbH in Wetzlar |
||
Event Manager – live experience / Social Media / Konzeption (m/w/d) KundenbüroHH GmbH & Co. KG in Hamburg |
||
Mitarbeiter:in Social Media & PR (m/w/x) Hochschule Reutlingen in Reutlingen |
||
Social Media Redakteur – m / w / d DIE FAMILIENUNTERNEHMER e.V. in Berlin |
||
Social-Media-Redakteur (m/w/d) für evangelisch.de Gemeinschaftswerk der Evangelischen Publizistik gGmbH in Frankfurt am Main |
||
Content Creator Social Media (m/w/d) Erlebnisbauernhof Gertrudenhof GmbH in Hürth |