Ein Redner hält eine Maske vor einer Filmkamera.mohamed Hassan/pixabay

Rechtliche und gesellschaftliche Herausforderungen sowie Innovationspotenziale von Deepfakes

In Kürze

Bei Deepfakes handelt es sich um Medieninhalte, die mithilfe von KI-Systemen erzeugt oder manipuliert wurden und die fälschlicherweise einen authentischen Eindruck erwecken. Seit ihrem ersten Aufkommen im Jahr 2017 hat sich die Technologie zu ihrer Erzeugung, vor allem aber ihrer Verbreitung dramatisch entwickelt. In der Folge stellt sich eine Reihe von gesellschaftlichen Herausforderungen, von sexueller Gewalt in Form von nicht-einvernehmlichen, sexualisierten Deepfakes über Betrugsversuche bis hin zu Versuchen politischer Einflussnahme. Dabei bietet die Technologie auch große Potenziale etwa in der Bildung, Kunst, Werbung und Unterhaltung. Die TA-Kompakt-Studie stellt den technischen Stand von Deepfakes, ihre Anwendungen und die Herausforderungen, die mit ihnen einhergehen, übersichtlich und aktuell dar. Ein besonderer Fokus liegt auf der Frage der bisherigen und einer möglichen zukünftigen rechtlichen Regulierung.

Neun Fragen – neun Antworten

KI-generierte Inhalte in Form von Text, Bild, Audio und/oder Video werden als synthetische Medien bezeichnet. Von Deepfakes spricht man, wenn solche Inhalte fälschlicherweise den Eindruck erwecken, dass sich bestimmte Sachverhalte zugetragen hätten oder Menschen bestimmte Aussagen treffen würden bzw. in Handlungen involviert wären. Daneben gibt es weitere Formen der Desinformation oder der Bildmanipulation, die ohne Unterstützung künstlicher Intelligenz (KI) auskommen. Diese werden zum Teil als Cheapfakes bezeichnet.

Für die Erstellung von Deepfakes werden vor allem vier KI-Grundmodelle genutzt: autoregressive Modelle, Autoencoder, Generative Adversarial Networks (GAN) und Diffusionsmodelle. Diese unterscheiden sich hinsichtlich der Menge an Trainingsdaten, die benötigt werden, der erreichbaren Qualität und dem benötigten Rechenaufwand sowie dem Grad an Spezialisierung für bestimmte Aufgaben.

Die Entwicklung der Technologien ist dadurch gekennzeichnet, dass mit immer weniger Aufwand immer bessere Ergebnisse erzielt werden können.

Bereits heute lassen sich Deepfakes sowohl mit Blick auf die Soft- als auch die Hardwareanforderungen mit verhältnismäßig wenig Aufwand erstellen und veröffentlichen. Es wird davon ausgegangen, dass die Verbreitung von Deepfakes zukünftig noch zunehmen wird und die Echtheit von Onlineinhalten selbst in Livesituationen nicht mehr ohne Weiteres angenommen werden kann.

Genaue Daten zum Ausmaß der Nutzung von Deepfaketechnologien liegen nicht vor, bei den wenigen dazu existierenden Studien ist nicht klar, wie belastbar sie sind. Insgesamt fehlt es an empirischer Forschung zum Ausmaß der Nutzung von Deepfaketechnologien.

Deepfaketechnologien bieten Potenziale für innovative Anwendungen insbesondere in den Bereichen Kunst und Unterhaltung, Bildung und Wissenschaft sowie Werbung und Marketing. Beispiele sind die lippensynchrone Übersetzung von Filmen, der didaktische Einsatz in Museen sowie satirische Darstellungen.

Allerdings gehen auch mit diesen Nutzungen indirekte Gefahren wie eine zunehmende Geringschätzung menschlicher Arbeit oder ein Verschwimmen der Grenzen von Wirklichkeit und Erfindung einher, wie sie für generative KI-Anwendungen allgemein beschrieben wurden.

Deepfakes können außerdem für die Strafverfolgung genutzt werden, etwa indem mit ihrer Hilfe Fahndungsaufrufe gestaltet werden oder der Zugang zu kriminellen Netzwerken ermöglicht wird.

Deepfakes können bewusst mit dem Ziel produziert und verbreitet werden, die öffentliche Debatte oder den politischen Prozess zu beeinflussen. Bereits der Verdacht einer Fälschung kann ausreichen, um die Glaubwürdigkeit von Nachrichten und das Vertrauen auf ein gemeinsames Verständnis der Wirklichkeit infrage zu stellen.

Deepfakes werden zudem gezielt gegen Menschen angewendet, um deren Reputation für betrügerische Zwecke auszunutzen oder gar zu zerstören. Sie können Identitätsdiebstahl und die Überwindung von Identifizierungsverfahren erleichtern. Pornografische Deepfakes werden als Form der sexuellen Gewalt insbesondere gegen Frauen eingesetzt und können auf gesellschaftlicher Ebene eine Zurückdrängung von Frauen aus dem öffentlichen Raum bewirken.

Deepfakes können für eine Vielzahl von Anwendungen eingesetzt werden, um Menschen, Unternehmen und Institutionen zu schaden. Eine explizite Regulierung von Deepfakes existiert im deutschen Recht bisher nicht. Auf zivilrechtlicher Ebene können der Bildnisschutz, das allgemeine Persönlichkeitsrecht sowie das Urheber- und Datenschutzrecht herangezogen werden. Zudem sind verschiedene strafrechtliche Normen anwendbar. Allerdings ergeben sich Rechtslücken insbesondere bei sexualisierten Deepfakes von Erwachsenen sowie in Bezug auf den Schutz vor Diskriminierung und den Einsatz von Deepfakes durch Strafverfolgungsbehörden.

Ein besonderes Problem stellt die Rechtsdurchsetzung bei Deepfakes dar. Häufig werden Deepfakes im Ausland produziert und publiziert, zudem ist die Beweisführung aufgrund der fehlenden Transparenz erschwert und Betroffene berichten, dass seitens der Behörden häufig nur geringe Bereitschaft zu einer strafrechtlichen Verfolgung besteht.

In Deutschland wurde 2024 ein Gesetzesantrag zur Ergänzung des Strafgesetzbuchs in den Bundesrat eingebracht. Vor dem Hintergrund der grundsätzlich sowohl nutzbringenden als auch schädlichen Anwendungsmöglichkeiten von Deepfaketechnologien sowie der Sensibilität von staatlichen Eingriffen in den öffentlichen Diskurs erscheint eine sorgfältige Abwägung von Regulierungsoptionen unabdingbar. Perspektivisch bieten Deepfakes für das Rechtssystem auch Chancen, etwa im Bereich der Strafverfolgung oder beim Schutz von Zeugen in Gerichtsverfahren. Allerdings stellt die Möglichkeit, Beweismittel mit einfachen Mitteln in überzeugender Qualität fälschen zu können, eine Herausforderung dar.

 

In einigen Ländern wurden bereits Gesetze erlassen, um bestimmte Auswirkungen von Deepfakes, insbesondere im Bereich der nicht einvernehmlichen Pornografie, gezielt zu erfassen. In den USA besteht seit Mai 2025 eine landesweite Regelung zu pornografischen Deepfakes, in mehreren Bundesstaaten sind politische Deepfakes reguliert. In China werden Deepfakes wie allgemein synthetische Medieninhalte durch ein eigenes Gesetz erfasst. Kernpunkte dabei sind ein umfassendes Missbrauchsverbot sowie eine Klarnamen- und Kennzeichnungspflicht. Ausnahmen für die Meinungs- oder Kunstfreiheit sind nicht vorgesehen. Auf europäischer Ebene legt die KI-Verordnung den Entwicklern von Deepfaketechnologien Transparenzpflichten auf, der Digital Services Act reguliert die Verbreitung von Inhalten insbesondere über reichweitenstarke Plattformen.

Die Entwicklung von Detektoren, mit denen sich Deepfakes automatisiert erkennen lassen, wird in mehreren deutschen Forschungsprojekten gefördert. Sie sind allerdings häufig auf bestimmte Deepfakearten spezialisiert. Ein grundsätzliches Problem von Detektoren besteht darin, dass sie auch für die Verbesserung von Deepfakes genutzt werden können und somit selbst dazu beitragen, die Hürden für die Erkennung zu erhöhen.

Alternative Ansätze richten sich auf die Kennzeichnung und Verifizierung authentischer Inhalte und die Rückverfolgung des Ursprungs der Daten, z. B. durch digitale Wasserzeichen oder kryptografische Signierung. Auch diese können jedoch von böswilligen Akteuren manipuliert bzw. umgangen werden.

 

Neben der Entwicklung von technischen Maßnahmen zur Authentifizierung von Inhalten und der Schließung von Regelungslücken wird vorgeschlagen, durch Aufklärung und transparente Berichterstattung über die möglichen Gefahren von Deepfakes zu informieren und die Wachsamkeit und Medienkompetenz zu erhöhen. Selbstverpflichtungen etwa von Parteien können zum Schutz der öffentlichen Debatte beitragen. Sowohl die Ausbreitung von Deepfakes als auch ihre Auswirkungen auf Individuen und die Gesellschaft sowie mögliche Reaktionen durch staatliche wie zivilgesellschaftliche Institutionen darauf sind noch wenig erforscht.

Methodisches Vorgehen

Die Studie stützt sich methodisch auf Literaturrecherchen zum Stand der technologischen Entwicklung, zu Anwendungsbeispielen und Auswirkungen von Deepfakes. Um die Rechtslage fundiert darlegen und diskutieren zu können, wurde ein rechtswissenschaftliches Gutachten in Auftrag gegeben, eine weitere juristische Einschätzung und Aktualisierung erfolgte durch ein Kommentargutachten zum Berichtsentwurf.

Download

Cover: TA-Kompakt Nr. 3:Rechtliche und gesellschaftliche Herausforderungen von Deepfakes

TA-Kompakt Nr. 3

Rechtliche und gesellschaftliche Herausforderungen und Potenziale von Deepfakes (PDF)

Der TAB-Bericht bietet einen kompakten Überblick über Deepfake-Technologien, ihre gesellschaftlichen Auswirkungen und rechtliche Herausforderungen und zeigt konkrete Handlungsansätze für Politik, Wirtschaft und Zivilgesellschaft auf.

doi:10.5445/IR/1000190774

 

Die  Reihe TA-Kompakt bedient den Informationsbedarf des Deutschen Bundestages bei aktuellen und kontroversen Themen in knapper Form. 

Im Bundestag

Der Abschlussbericht wurde am 17. Dezember 2025 dem Ausschuss für Forschung, Technologie, Raumfahrt und Technologiebewertung vorgestellt und von den Ausschussmitgliedern abgenommen.

Vorgang - Bericht auf dem Parlamentsserver (DIP)
Technikfolgenabschätzung (TA) Rechtliche und gesellschaftliche Herausforderungen und Potenziale von Deepfakes

In den Medien

  • netzpolitik.org (27.02.2026), Bericht für den Bundestag: So gefährlich sind Deepfakes. 

Frühere Publikation zum Thema

Cover Themenkurzprofil Nr. 25 Deepfakes - Manipulation von Filmsequenzen

Themenkurzprofil Nr. 25

 

 

Deepfakes – Manipulation von Filmsequenzen
2019. Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). doi:10.5445/IR/1000133910