OpenAI hat mit Sora 2 ein neues Modell seines KI-Videogenerators veröffentlicht. Außerdem: Eine dazugehörige App, mit der Nutzer selbst generierte Clips erstellen, teilen und anschauen können. Rechtlich und technisch agiert das Unternehmen dabei sowohl naiv als auch einfach nur dreist.
OpenAI-App: Was ist Sora?
- Mit dem Text-zu-Video Modell Sora 2 können Nutzer eigene KI-Videos generieren. Es ist Teil der iOS-App Sora, einer Art Online-Plattform, auf der man Bewegtbildinhalte erstellen, teilen und ansehen kann. Ein Video, in dem ein KI-Klon von Sam Altman durch eine virtuelle Welt spaziert, soll die Möglichkeiten demonstrieren. Die Sora-App ist zunächst nur in den USA und Kanada verfügbar. OpenAI will sie aber weltweit nutzbar machen.
- OpenAI schlägt mit der Sora-App einen neuen und absurden Weg bei der Verwendung urheberrechtlich geschützter Inhalte ein. Rechteinhaber sollen aufgefordert werden, der Verwendung ihres Materials ausdrücklich zu widersprechen – ansonsten werde man es für Sora nutzen. Der Ansatz hat nicht nur heftige Diskussionen ausgelöst, sondern ist in vielen Ländern rechtlich vermutlich nicht haltbar.
- Eine Funktion namens Cameos ermöglicht es Nutzern, sich nach der Aufnahme eines Verifizierungsclips in generierte Szenen einzufügen. Durch die Verifizierung sollen Deepfakes vorgebeugt werden. Die Video-KI soll Personen des öffentlichen Lebens ohne deren Einverständnis nicht nachbilden können. OpenAI will damit offenbar das Erstellen von politischen Fake-Videos verhindern. Das Tool soll sexuelle Darstellungen ablehnen und Videos als KI-generiert kennzeichnen.
Einordnung: Angriff auf TikTok und Co?
Mit Sora 2 hat OpenAI zweifellos eine beeindruckende Video-KI veröffentlicht, die Nutzern völlig neue kreative Möglichkeiten eröffnet. Das Modell scheint nicht nur besser zu sein als die Vorgänger-Version, sondern ermöglicht erstmals die synchronisierte Ausgabe von Sprachen. Das konnten bislang nur wenige Konkurrenz-Modelle wie Veo 3 von Google.
Sora stellt gleichzeitig einen Angriff auf Plattformen wie TikTok, Instagram und YouTube dar. Doch mit der App wächst auch die Sorge vor sogenannten AI Slops, einer Flut an minderwertigen KI-Inhalten, von der die Konkurrenz bereits ein Lied singen kann.
Herzstück der App ist eine Funktion namens „Cameo“, die Nutzern eigene Aufnahmen erlaubt, um sich selbst zu inszenieren – mit schier endlosen Möglichkeiten. Doch trotz seiner Sicherheitsmechanismen scheint OpenAI das Missbrauchspotenzial in Form von Deepfakes massiv zu unterschätzen.
Denn: Die Grenzen zwischen unterhaltsamen Clips und Manipulationen werden verschwimmen, da selbst die besten Mechanismen keine Sicherheit garantieren können. Fake News und Betrug dürften deshalb vorprogrammiert sein, während sich Urheber bereits jetzt betrogen fühlen dürfen. Denn Stillschweigen sollte stets Schutz bedeuten, nicht Zustimmung.
Stimmen
- OpenAI-Chef Sam Altman bejubelt Sora 2 auf X (ehemals Twitter): „Für viele von uns fühlt sich das wie der Moment ‚ChatGPT für Kreativität‘ an, und es macht Spaß und ist neu. Es ist großartig, dass man wirklich einfach und schnell von der Idee zum Ergebnis gelangt und dass sich dadurch eine neue soziale Dynamik entwickelt.“
- Jose Marichal, Professor an der California Lutheran University, der sich mit der Umgestaltung der Gesellschaft durch KI beschäftigt: „Ich glaube, was einen daran so fesselt, ist, dass sie irgendwie unglaubwürdig sind, aber realistisch aussehen. Wir sind entweder die Manipulierten oder die Manipulatoren. Und das führt uns zu Dingen, die etwas anderes sind als liberale Demokratie, etwas anderes als repräsentative Demokratie.“
- Musikproduzent Ed-Newtom Rex arbeitet zwar selbst mit KI, ist aber entsetzt: „OpenAI gibt an, dass es urheberrechtlich geschützte Figuren in Sora-Videos verwenden wird, sofern der Rechteinhaber nicht widerspricht. Wenn sie damit durchkommen, wozu dient dann das Urheberrecht noch? Es wird durch die Lobbyarbeit der KI völlig untergraben. Die kreative Gemeinschaft muss sich dagegen zusammenschließen.“
Ausblick: Eine KI-App für Deepfakes?
Mit Sora könnte ein viraler Blitz in der Social Media-Branche einschlagen. Cameo-Clips, Memes und skurrile Mondspaziergänge werden zunächst für Euphorie und Schmunzeln sorgen. Doch Sora ist ein zweischneidiges Schwert.
Denn minderwertige Clips dürften mit der Zeit nicht nur das Nutzererlebnis verwässern, sondern auch Betrüger und Machiavellismus auf den Plan rufen. OpenAI kann hier vielleicht noch gegensteuern.
Doch die absurde Rechtsauffassung, schamlos Inhalte anderer nutzen zu wollen, dürfte in einem rechtlichen Scherbenhaufen enden. Die Ziele sind jedoch klar erkennbar.
OpenAI will einerseits ein technologisches Ausrufezeichen setzen. Andererseits testet man die rechtlichen Grenzen aus. Letztendlich wird es um eine Plattform gehen, mit der das Unternehmen Geld verdienen will. Denn was viele im KI-Hype schnell vergessen ist, dass OpenAI aktuell defizitär agiert.
Auch interessant: