Aktuell in der CR

Deliktsschutz gegen KI-Abbilder – Teil 1: Täuschende Deepfakes (Kraetzig, CR 2024, 207)

Generative KI-Modelle können KI-Abbilder mit einem Grad an Perfektion erschaffen, dass sie als die repräsentierten realen Personen anmuten. Werden derartige KI-Abbilder als täuschende Deepfakes eingesetzt, kann das schwerwiegende Folgen für die Repräsentierten haben. Kann das Deliktsrecht die neue Gefahrenlage für Persönlichkeitsrechte in der digitalen Welt auffangen?

INHALTSVERZEICHNIS:

I. Einleitung: Körper ohne Leib

II. Deliktschutz gegen Deepfakes

III. Anspruch wegen Verletzung des allgemeinen Persönlichkeitsrechts

1. Abwägung der betroffenen Grundrechte

2. Satire: Kunst oder Meinung

3. Abwägungsparameter

IV. Anspruch aus § 823 Abs. 2 BGB i.V.m. Art. 52 Abs. 3 Unterabs. 1 KI-VO

1. Schutzgesetz

2. Verstoß gegen Kennzeichnungspflicht

3. Schutzzweck der Norm

4. Schaden

V. Fazit: Deliktschutz gegen täuschende Deepfakes

 


Leseprobe:
 

"I. Einleitung: Körper ohne Leib

1

Künstliche Intelligenz (KI) kann Stimme und Körper lebensecht nachbilden. 1 So entstehen digitale Zwillinge. 2 Abbilder von realen Personen, jedoch ist die Verbindung zu diesen gelöst: Unseren Körper kontrollieren wir, unser digitales Abbild nicht. Technikkundige Verwender können dank generativer KI mit den KI-Abbildern beliebig spielen: ihnen Worte in den Mund legen, die der Repräsentierte nie sagen würde; ihnen Handlungen zuschreiben, die der Repräsentierte nie vornehmen würde. Mittels KI können die Repräsentierten der Lächerlichkeit preisgegeben, diskreditiert oder in fingierte pornografische Kontexte 3 versetzt werden. Man kann sie auch Straftaten begehen lassen.

2

Zur Erschaffung der KI-Abbilder werden Deep Learning-Technologien eingesetzt. Neuronale Netzwerke werden mit Input in Form von Daten zum Repräsentierten gefüttert, also insbesondere mit Fotografien und Videos von ihm. 4 Auf deren Grundlage können sie KI-Abbilder erschaffen – mit einer Gestik und Mimik, die so authentisch ist, dass man sie vom „Original“ nicht unterscheiden kann. Wie real die so generierten KI-Abbilder dabei anmuten, konnten wir jüngst bei einem Video des „Zentrums für politische Schönheit“ sehen: (Fake-)Bundeskanzler Olaf Scholz kündigte an, dass die AfD verboten werde – mit seiner Stimme, seiner Mimik. Jedenfalls beim flüchtigen Blick in den sozialen Medien war das Video nicht als Fälschung erkennbar. 5 In den USA bekamen Bürger kurz vor den Vorwahlen jüngst einen Anruf von einem vermeintlichen Joe Biden, der ihnen sagte, sie sollten ihre Stimme für ihn doch lieber für die Wahl im November aufsparen. 6

3

Es ist kein neues Phänomen, dass Bilder manipuliert und verbreitet werden. Doch mittels KI-Technologien können im digitalen Raum alternative Realitäten geschaffen werden. Die Grenze zwischen Realität und Fiktion wird immer mehr verwischen. Die Simulation von Faktizität kann fatale Folgen für unsere Gesellschaft haben: …"

Hier direkt weiterlesen im juris PartnerModul IT-Recht

 



Verlag Dr. Otto Schmidt vom 13.03.2024 12:15

zurück zur vorherigen Seite