Rechtliche und gesellschaftliche Herausforderungen sowie Innovationspotenziale von Deepfakes

Thematischer Hintergrund

Nachdem im März 2022 ein gefälschtes Video auftauchte, in dem der ukrainische Präsident Wolodymyr Selenskyj seine Soldaten dazu auffordert, ihre Waffen niederzulegen, standen Deepfake-Videos, also manipulierte Filmsequenzen, wieder im Fokus medialer Aufmerksamkeit. Unter Deepfakes werden im Allgemeinen wirklichkeitsgetreu erscheinende mediale Inhalte, in erster Linie Filme bzw. manipulierte oder synthetische Audio- oder Bildmedien, verstanden, die mit Hilfe künstlicher Intelligenz (KI) entstanden sind. Die Bezeichnung Deepfake setzt sich aus den Begriffen Deep Learning, als eine Form von künstlichen neuronalen Netzen (eine Unterart der KI), und Fake (Fälschung) zusammen.

Die öffentliche und wissenschaftliche Aufmerksamkeit für Deepfake-Filme, -Bilder oder -Tonspuren ist unter anderem deshalb so groß, weil es auch für Einzelpersonen zunehmend leicht wird, Deepfakes zu erstellen, und weil der technische Fortschritt die Qualität der Manipulation deutlich erhöht (und damit die Detektion erschwert). Eine Herausforderung, die mit dieser Entwicklung einhergeht, ist die Nutzung von Deepfakes als Teil von gezielten Desinformationskampagnen, die potenziell das Vertrauen in Institutionen oder Personen nachhaltig erschüttern oder Situationen negativ beeinflussen können. Auch können Deepfakes bei Video- oder Bild-Identverfahren genutzt werden, um eine Identifizierung bzw. Authentifizierung zu umgehen oder Identitätsdiebstahl zu begehen. Zudem könnten als Beweismittel vorgelegte manipulierte Video- oder Tonsequenzen Gerichte vor neue Herausforderungen stellen. Schließlich können Deepfake-Filme auch bei Verletzungen von Persönlichkeitsrechten und bei der öffentlichen Herabwürdigung von Einzelpersonen zunehmend bedeutsam werden, etwa wenn Gesichter Dritter in Pornosequenzen montiert werden. Insgesamt sind pornografische Darstellungen eines der häufigsten bekannten Anwendungsfelder von Deepfakes.

Zugleich eröffnen synthetische audiovisuelle Medien auch eine Reihe von innovativen, nicht schädigenden Anwendungsmöglichkeiten im Bereich von Kunst, Satire, Öffentlichkeitsarbeit und Werbung. Ebenso ließen sich Synchronisierungen von Filmen in verschiedene Sprachen erleichtern, indem etwa die Lippenbewegungen entsprechend angepasst und die Originalstimme von Schauspieler/innen in beliebige Sprachen übertragen werden können. Auch im Bereich von Bildung und Vermittlung eröffnen Deepfake-Avatare neue Möglichkeiten des inhaltlichen Zugangs, beispielsweise zu historischem Wissen etwa anhand von mittels Deepfake »wiederbelebter« geschichtlicher Figuren.

Ziel und Vorgehensweise

Die Untersuchung soll im Rahmen einer Kurzstudie einen konzentrierten Überblick über den bisherigen Stand der technologischen Entwicklung und der gesellschaftlichen und rechtlichen Umgangsweisen mit Deepfakes mit vier Schwerpunkten geben. Als Ausgangspunkt soll ein gebündelter Einblick in die technologischen Grundlagen gegeben und herausgearbeitet werden, inwiefern sich durch Deepfakes andere Implikationen als durch andere verbreitete audiovisuelle Bearbeitungen und Manipulationen ergeben. In einem zweiten Schritt soll herausgearbeitet werden, welche kreativen und innovativen Nutzungen Deepfakes u. a. für die Bereiche Unterhaltung, Kunst, Bildung und Vermittlung sowie in der Strafverfolgung eröffnen (wenn etwa Deepfakevideos von Vermissten erstellt werden, um neue Hinweise durch die Bevölkerung zu erhalten).

Der Schwerpunkt der Ausarbeitung soll im dritten Schritt auf den gesellschaftlichen und rechtlichen Herausforderungen im Umgang mit Deepfakes liegen. Hierfür wird ein rechtswissenschaftliches Gutachten ausgeschrieben, das die geltende Rechtslage zu Deepfakes in Deutschland, mögliche regulative Lücken sowie potenzielle neue Gesetze bzw. Gesetzesnovellen zur Schließung dieser Lücken zusammenfassen soll. Das Gutachten wird seitens des TAB durch eine Literaturstudie um die gesellschaftlichen Aspekte ergänzt, etwa dazu, wie Mediennutzer/innen, Journalist/innen, aber auch Richter/innen und Staatsanwält/innen für die Gefahren von Deepfakes sensibilisiert werden können, um Manipulationen zu erkennen.

Im letzten Schritt soll herausgearbeitet werden, welche technischen Möglichkeiten es bislang gibt, um Deepfakes effizient zu erkennen und welche technischen Fortschritte in diesem Bereich zu erwarten sind – zunehmend schwierig zu detektierende Deepfakes oder vielmehr eine bessere Erkennung von Deepfakes etwa durch entsprechende technische Detektionssoftware?