Sora2: Warum die KI-Show Spaß macht – und Angst auslöst
Sora2 erobert TikTok & Instagram mit verblüffenden KI-Deepfakes – von Jackson bis Tupac. Aber wo kippt Unterhaltung in Risiko? Highlights & Gefahren.
Michael Jackson ist am Leben und beklaut KFCs-Gäste, Albert Einstein und Tupac gehen als MMA-Kämpfer in den Ring, Martin Luther King Jr. rennt mit einem unbezahlten Slushy über Parkplätze und Kurt Cobain hat seine Liebe fürs Paragliding entdeckt. Was mit Sora2, der neuen generativen KI-App von OpenAI, möglich ist, mag unterhaltsam sein, doch die Flut an KI-Deepfakes sagt auch etwas über unsere Gegenwart aus — und über die Zukunft. Ein Überblick.
Sora2: Die unterhaltende Modellierung der Realität?
Seit wenigen Wochen kursieren auf Instagram und TikTok flutartig Fake-Videos mit verstorbenen Persönlichkeiten, sprechenden Tieren, Promi-Gesprächen, Liebeserklärungen und Pranks, die alle von Nutzer:innen mit nur ein paar Klicks, Zugriffsberechtigungen und Datenfreigaben erstellt worden sind. Der Grund dafür: Anfang Oktober stellte OpenAI, das Unternehmen hinter ChatGPT, seinen überarbeiteten Videogenerator Sora2 und die dazugehörige App vor: Sora. Der KI-Generator wurde bereits tausendfach heruntergeladen – und das Internet kann sich seither kaum erholen von den ganzen Inhalten, die alle künstlich generiert wurden. Der Unterhaltungsfaktor scheint größer zu sein als die Gefahren hinter derartigen Deepfakes – oder etwa nicht?
Oft sind es ungefährliche Videos, die im Netz am meisten Reichweite finden — etwa Aufnahmen von Polizei-Bodycams, auf denen Beamt:innen bekannte Figuren wie SpongeBob oder Scooby-Doo kontrollieren, oder unzählige Variationen von Jesus Christus, der seinen Weg in der modernen Welt sucht. Beliebt sind auch generative Reinkarnationen verstorbener Publikumslieblinge wie Heath Ledger, Tupac Shakur oder auch Robin Williams — die Möglichkeiten mit Sora2 scheinen endlos.
Es braucht wenig, um Deepfakes wie diese zu generieren: Das Modell akzeptiert frei gewählte Textbeschreibungen und erzeugt daraus kurze Videoclips in realistischer Qualität.
Das sind die spektakulärsten Sora2-Videos
- Michael Jackson ist am Leben – und hungrig. In diesem Sora-Video stiehlt der das Essen eines KFC-Gasts.
- Hier ist Tupac Shakur auf Deutsch am Freestylen im Frankfurter Bahnhof.
- OpenAI-CEO Sam Altmann klaut bei Target? In diesem Sora-Video jedenfalls schon.
- Das Internet feiert Bob Ross’ eigentlich für sein harmonisches Wesen, doch diese KI-bedingte, gänzlich andere Seite des Malers, kommt auch gut bei seinen Fans an.
- Stephen Hawking, der zu seinen Lebzeiten vor den Risiken von KI-Technologien warnte, macht dank ebenjener nun spezielle Half-Pipe-Tricks.
Alles KI — und jetzt?
Die breite Zugänglichkeit und die simple Anwendungsweise, gekoppelt mit fehlender Regulierung in Sachen Nutzer:innendaten, Urheber- und Persönlichkeitsrechte, werfen bei all dem Spaß aber auch ernsthafte Fragen auf. Zum einen wurden bereits Fälle gemeldet, in denen die Angehörigen verstorbener Prominenter von Retraumatisierung sprachen und um Eindämmung der Videos baten.
So machte etwa Zelda Williams, die Tochter des 2014 verstorbenen Schauspielers Robin Williams, via Instagram-Story bekannt, dass diese Art Videos für sie als Angehörige alles andere als unterhaltend seien und ihr Vater „ebenfalls nichts davon halten“ würde.
Auch die Nachfahren von Martin Luther King Jr. äußerten scharfe Kritik an der Verbreitung von Deepfakes, in denen die Worte des Bürgerrechtlers nicht nur verdreht, sondern teilweise in rassistische Versionen umgemünzt und verbreitet wurden.
OpenAI erklärte bezüglich all dieser Fälle zwar, dass sich um eine Eindämmung dieser Inhalte bemüht werde, doch fehlt ganz grundsätzlich die Regulierung solcher Deepfakes im Internet.
Urheberrechtsfragen in der Unterhaltungsindustrie
Das Thema Regulierung spielt nun eine wichtige Rolle. Wie „Deadline“ berichtete, erklärte CEO Charles Rivkin in einem Statement: „Seit dem Release von Sora2 sind Videos in der App von OpenAI und in den sozialen Medien aufgetaucht, die die Rechte unserer Filme, Shows und Charaktere verletzen.“ Er fügte hinzu, dass das Unternehmen „unverzüglich und entschieden“ handeln müsse, um der Urheberrechtsverletzung einen Riegel vorzuschieben.
Daraufhin meldete sich OpenAI-CEO Sam Altman zu Wort. Seinen Angaben zufolge habe OpenAI von vielen Rechteinhaber:innen positives Feedback über die „interaktive Fan-Fiction“ erhalten; er verstehe aber, warum Bedenken darüber bestehen, wie diese Charaktere genutzt werden. Also sollen die Rechteinhaber:innen jetzt auch die Entscheidung darüber bekommen, ob und wie ihre Charaktere in Sora2 dargestellt werden können. Wie genau das umgesetzt wird, ist allerdings nicht bekannt.
Generative KI und die Sorge um … alles?
Hinter den unzähligen Möglichkeiten, mit Sora2 eine alternative Wirklichkeit herzustellen, stehen mehrere Sorgen. Zum einen fürchten viele eine noch rasantere Verdichtung des „AI-Slops“, also die massenhafte Befüllung des Internets mit KI-Inhalten, die durch von KI gesteuerte Algorithmen in die täglichen Feeds der Nutzer:innen geraten. Das hat bereits jetzt Auswirkungen auf einen verantwortungsbewussten Umgang mit den Informationen, die von diesen Beiträgen ausgehen: Die Fähigkeit, echte Inhalte von gefälschten zu unterscheiden, wird schwieriger zu greifen.
Plus: Einige Nutzer:innen instrumentalisieren die generative Video-App gezielt, um Desinformationen zu verbreiten, die Reichweite polarisierender Inhalte anzukurbeln und gleichzeitig die Angst vor der Macht des AI-Slops zu schüren. Von Sora2 geht also auch eine latente Gefahr für die politische Realität aus. Kürzlich erst veröffentlichte etwa Präsident Trump als Reaktion auf die „No King“-Proteste in den USA ein KI-generiertes Video, das ihn mit Krone auf dem Kopf in einem Kampfjet zeigt, wie er mit Fäkalien auf die Demonstrierenden feuert. Nicht lange zuvor erschien auch ein Deepfake, das Chuck Schumer, den Minderheitsführer im Senat, sagen ließ, die Demokraten seien nur ein Haufen „woke pieces of shit“, also woke Stücke Scheiße.



