Mit Galactica hat Facebook-Mutterkonzern Meta ein neues Sprachmodell entwickelt, das unter anderem wissenschaftliche Texte zusammenfassen soll. Doch das scheint offenbar nicht wie gewünscht zu funktioniert. Das Unternehmen nahm eine Demo nach nur drei Tagen wieder offline.
Viele Technologie-Konzerne jagend aktuell einem Trend hinterher: der Künstlichen Intelligenz (KI). Denn geht es nach Google, Meta und Co. sollen uns KI-Systeme künftig den Alltag erleichtern. Meta musste nun aber feststellen, dass das nicht immer wie geplant funktioniert.
Das hauseigene Sprachmodell Galactica war aufgrund von technischen Problemen nämlich gerade einmal drei Tagen online. Ähnlich wie andere Systeme basiert es dabei auf einem großen Wortschatz, wobei ein Algorithmus ständig dazu lernt. Dank solcher Modelle schrieben KI-Systeme bereits Bücher oder Zeitungsartikel. .
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Senior Social Media Manager (w/m/d) Horl 1993 GmbH in Freiburg |
||
Social Media Manager mit Pflege-Background (m/w/d) Dr. Ausbüttel & Co. GmbH in Dortmund |
Meta möchte mit Sprachmodell wissenschaftliche Texte zusammenfassen
Doch dass diese Systeme nicht immer reibungslos funktionieren, musste nun auch Facebook-Mutterkonzern Meta feststellen. Das Unternehmen trainierte sein Sprachmodell Galactacia mit über 48 Millionen wissenschaftlichen Artikeln, Büchern, Vorlesungen, Webseiten und Enzyklopädien. Ziel dabei war es, wissenschaftliche Veröffentlichungen zusammenfassen.
Unter anderem kann das Modell Matheprobleme lösen, Wikipedia-Artikel generieren, Moleküle und Proteine abbilden und wissenschaftlichen Code schreiben. Doch eine Herausforderung überwand Galactica nicht: die Unterscheidung von Fakten und Lügen. Denn erste öffentliche Tests machten deutlich, dass die KI abenteuerliche Texte über Bären im Weltraum erfand.
Galactica: Algorithmus kann Fakten und Lügen nicht unterscheiden
Das Problem dabei ist, dass dem System eine Unterscheidung zwischen Wahrheit und Lüge schwierig fällt. Menschen, die nicht tief in den Themenkomplexen stecken, erhalten wissenschaftliche Papiere, die kaum Wahrheiten enthalten. Gleichzeitig nennt Meta aber Autoren, auf die sich der Algorithmus stützt. Für Laien entstehen somit legitime Texte ohne solides Fundament.
Meta zog daraufhin die öffentliche Version nach gerade einmal drei Tagen zurück und will an den vielen gemeldeten Problemen weiterhin arbeiten. Neben den Lügen, die Galactica verbreitet, lässt sich auch keine Zusammenfassung zu für Meta „problematischen“ Themen generieren – darunter etwa Rassismus und AIDS.
Auch interessant:
- Tweet Hunter: Diese Künstliche Intelligenz sagt deine Tweets voraus
- Künstliche Intelligenz soll gefährdete Vögel vor Windrädern schützen
- Klimaschutz: Alphabet will mithilfe von KI Algen-Ökosysteme retten
- Essen bestellen per Chatbot: So arbeitet die KI-Agentur we-do.ai
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Senior Social Media Manager (w/m/d) Horl 1993 GmbH in Freiburg |
||
Social Media Manager mit Pflege-Background (m/w/d) Dr. Ausbüttel & Co. GmbH in Dortmund |
||
Social Media Manager:in & Content Creator:in (m/w/d) Restube GmbH in Karlsruhe |
||
Social Media Manager (m/w/d) / Schwerpunkt Video Content WWF Deutschland in Berlin |
||
Social Media & Content Marketing Manager (m/w/d) bonprix Handelsgesellschaft mbH in Hamburg |
||
HR Social Media Manager / Content Creator (m/w/d) freenet AG in Hamburg |
||
Social Media Community Manager (m/f/d) Flaconi GmbH in Berlin |
Lustig , der Mensch himself kann Wahrheit und Lüge heutzutage nicht mehr auseinander halten und gibt es weiter. Siehe Internet und deren Plattformen. Da soll eine von Ihm geschaffene Software(KI nichts anderes als Datensammlung XXXL) das können. Nice