KI-Deepfakes von Verbrechensopfern bei TikTok sind ein gefährlicher Trend
Auf TikTok werden entsetzliche, von KI generierte Clips von meist kindlichen Mordopfern gepostet. Realität und Fiktion könnten im True-Crime-Genre eine ethisch immer problematischere Verbindung eingehen. Ein Bericht von Ej Dickson.
Oma hat mich bei 230 Grad im Ofen eingeschlossen, als ich gerade 21 Monate alt war“, sagt das putzige Baby mit den riesigen blauen Augen und dem geblümten Stirnband in einem TikTok-Video.
Das Baby, das zu der klagenden Melodie von Dylan Mathews „Love Is Gone“ mit liebenswert kindlicher Stimme spricht, gibt sich als Rody Marie Floyd zu erkennen, ein kleines Mädchen, das mit ihrer Mutter und Großmutter in Mississippi lebte. Sie erzählt, dass sie eines Tages hungrig war und nicht aufhören wollte zu weinen, woraufhin ihre Großmutter sie in den Ofen steckte, was zu ihrem Tod führte. „Bitte folgen Sie mir, damit mehr Menschen meine wahre Geschichte kennen“, sagt das Baby am Ende des Videos.
Das Baby in dem Video ist natürlich nicht echt: Es handelt sich um eine von einer Künstlichen Intelligenz erzeugte Kreation, die auf dem Account @truestorynow auf TikTok gepostet wurde, einem Konto mit fast 50.000 Followern, das Videos von echten Verbrechensopfern veröffentlicht, die ihre Geschichte erzählen.
Die grausame Geschichte, die sie erzählt, ist wahr, wenn auch nur zum Teil. Das Baby hieß nicht Rody Marie, sondern Royalty Marie und wurde 2018 im Haus ihrer Großmutter in Mississippi erstochen und in einem Ofen verbrannt aufgefunden. Die Großmutter, die 48-jährige Carolyn Jones, wurde Anfang des Jahres wegen Mordes angeklagt. Aber Royalty war 20 Monate alt, als sie starb, nicht 21, und anders als das Baby in dem TikTok-Video war sie schwarz, nicht weiß.
Oft sprechen die Opfer selbst und erzählen von ihrem grausamen Ableben
Solche Ungenauigkeiten sind in der grotesken Welt von KI-True-Crime-TikTok, in dem Künstliche Intelligenz eingesetzt wird, um Mordopfer, von denen viele kleine Kinder sind, wieder auferstehen zu lassen, an der Tagesordnung. In den Videos, die zum Teil millionenfach aufgerufen werden, spricht ein Opfer in der Ich-Perspektive über die grausamen Details seines Todes; die meisten von ihnen sind nicht mit einer Inhaltswarnung versehen.
„Sie sind ziemlich seltsam und gruselig“, sagt Paul Bleakley, Assistenzprofessor für Strafjustiz an der Universität von New Haven dem ROLLING STONE. „Sie scheinen darauf ausgelegt zu sein, starke emotionale Reaktionen auszulösen, denn das ist der sicherste Weg, um Klicks und Likes zu bekommen. Es ist unangenehm anzuschauen, aber ich denke, das ist vielleicht der Sinn der Sache.
Viele der Accounts haben einen Haftungsausschluss, der besagt, dass in den Videos keine echten Fotos der Opfer verwendet werden, um „die Privatsphäre der Familie zu respektieren“, wie Nostalgia Narratives, ein Account, der Videos über wahre Verbrechensopfer für seine 175.000 Follower veröffentlicht, in den Bildunterschriften der Videos schreibt.
Der Account erzählt nicht nur die Geschichten berühmter Kindermordopfer wie Elisa Izquierdo, ein sechsjähriges Mädchen, das 1995 von seiner misshandelnden Mutter ermordet wurde, und Star Hobson, ein Einjähriger, der 2020 von der Freundin seiner Mutter getötet wurde, sondern auch von erwachsenen Mordopfern wie George Floyd und JFK. Keiner der Accounts, die ROLLING STONE kontaktiert hat, reagierte auf Anfragen nach einem Kommentar, aber die Tatsache, dass sie das Aussehen der Opfer verändern, ist wahrscheinlich auf die TikTok-Community-Richtlinien zurückzuführen, die Deepfake-Darstellungen von Privatpersonen oder Jugendlichen verbieten, eine Richtlinie für erzeugte Medien, die die Plattform im März eingeführt hat.
Die Verbreitung dieser KI-Videos mit echten Verbrechensopfern auf TikTok wirft ethische Fragen auf. Obwohl Dokumentarfilme wie „The Jinx“ und „Making a Murderer“ und Podcasts wie „Crime Junkie“ und „My Favorite Murder“ eine riesige Fangemeinde haben, haben viele Kritiker des True-Crime-Genres die ethischen Implikationen des Konsums von realen Geschichten über schreckliche Überfälle und Morde als reine Unterhaltung in Frage gestellt, wobei die Zunahme von Hobby-Detektiven und True-Crime-Besessenen möglicherweise die Angehörigen der Opfer erneut traumatisiert.
Diese Sorge gilt doppelt für Videos wie das von Royalty, in dem die Geschichte eines Opfers aus dessen Perspektive erzählt wird und dessen Name – vermutlich ohne Zustimmung der Familie – verwendet wird, was einen unglaublich gruseligen Effekt hat. „So etwas hat das Potenzial, Menschen, die schon einmal Opfer waren, erneut zu viktimisieren“, sagt Bleakley. „Stellen Sie sich vor, Sie wären ein Elternteil oder ein Verwandter eines der Kinder in diesen KI-Videos. Sie gehen online und hier ist ein KI-Bild [basierend auf] Ihrem verstorbenen Kind, das in sehr blutigen Details beschreibt, was mit ihm passiert ist.“
Klagen könnten ins Leere laufen
Deepfake-Videos als Teil des True-Crime-Genres unterscheiden sich aus offensichtlichen Gründen von Deepfake-Pornos. Bleakley kann sich jedoch vorstellen, dass trauernde Familien zivilrechtlich gegen die Macher solcher Videos vorgehen werden, vor allem, wenn sie zu Geld gemacht werden; er merkt jedoch an, dass es für die Familien schwierig wäre, mit dem Argument der Verleumdung zu argumentieren, da die Personen verstorben sind. „Das ist eine sehr heikle, trübe Grauzone“, sagt er.
Eines ist jedoch klar: Angesichts der rasanten Entwicklung der KI-Technologie und der Tatsache, dass es kaum Vorschriften gibt, um ihre Verbreitung einzudämmen, stellt sich nicht die Frage, ob Videos wie diese immer beliebter werden, sondern vielmehr, wie viel schlimmer die Verbindung von wahren Verbrechen und KI noch werden wird.
Man kann sich leicht vorstellen, dass die Macher von „True Crime“-Videos nicht nur die Stimmen von Mord-„Opfern“ nachbilden können, sondern auch die blutigen Details von Verbrechen nachstellen können. „Das ist immer die Frage bei jeder neuen technologischen Entwicklung“, sagt Bleakley. „Wo wird sie aufhören?“
Dieser Text ist eine Übersetzung eines Artikels von ROLLINGSTONE.com