
Rechtliche und gesellschaftliche Herausforderungen sowie Innovationspotenziale von Deepfakes
- Projektteam:
Octavia Madeira, Steffen Albrecht, Jan-Henning Hansen; Alma Kolleck
- Themenfeld:
- Themeninitiative:
Ausschuss für Digitales
- Analyseansatz:
TA-Kurzstudie
- Starttermin:
2022
- Endtermin:
2025
In Kürze
Bei Deepfakes handelt es sich um Medieninhalte, die mithilfe von KI-Systemen erzeugt oder manipuliert wurden und die fälschlicherweise einen authentischen Eindruck erwecken. Seit ihrem ersten Aufkommen im Jahr 2017 hat sich die Technologie zu ihrer Erzeugung, vor allem aber ihrer Verbreitung dramatisch entwickelt. In der Folge stellt sich eine Reihe von gesellschaftlichen Herausforderungen, von sexueller Gewalt in Form von nicht-einvernehmlichen, sexualisierten Deepfakes über Betrugsversuche bis hin zu Versuchen politischer Einflussnahme. Dabei bietet die Technologie auch große Potenziale etwa in der Bildung, Kunst, Werbung und Unterhaltung. Die TA-Kompakt-Studie stellt den technischen Stand von Deepfakes, ihre Anwendungen und die Herausforderungen, die mit ihnen einhergehen, übersichtlich und aktuell dar. Ein besonderer Fokus liegt auf der Frage der bisherigen und einer möglichen zukünftigen rechtlichen Regulierung.
Worin unterscheiden sich Deepfakes von anderen Formen der Bildmanipulation bzw. KI-generierter Inhalte?
KI-generierte Inhalte in Form von Text, Bild, Audio und/oder Video werden als synthetische Medien bezeichnet. Von Deepfakes spricht man, wenn solche Inhalte fälschlicherweise den Eindruck erwecken, dass sich bestimmte Sachverhalte zugetragen hätten oder Menschen bestimmte Aussagen treffen würden bzw. in Handlungen involviert wären. Daneben gibt es weitere Formen der Desinformation oder der Bildmanipulation, die ohne Unterstützung künstlicher Intelligenz (KI) auskommen. Diese werden zum Teil als Cheapfakes bezeichnet.
Welche Technologien werden für die Erstellung von Deepfakes genutzt?
Für die Erstellung von Deepfakes werden vor allem vier KI-Grundmodelle genutzt: autoregressive Modelle, Autoencoder, Generative Adversarial Networks (GAN) und Diffusionsmodelle. Diese unterscheiden sich hinsichtlich der Menge an Trainingsdaten, die benötigt werden, der erreichbaren Qualität und dem benötigten Rechenaufwand sowie dem Grad an Spezialisierung für bestimmte Aufgaben.
Die Entwicklung der Technologien ist dadurch gekennzeichnet, dass mit immer weniger Aufwand immer bessere Ergebnisse erzielt werden können.
Was ist über das Ausmaß der Nutzung von Deepfaketechnologien bekannt?
Bereits heute lassen sich Deepfakes sowohl mit Blick auf die Soft- als auch die Hardwareanforderungen mit verhältnismäßig wenig Aufwand erstellen und veröffentlichen. Es wird davon ausgegangen, dass die Verbreitung von Deepfakes zukünftig noch zunehmen wird und die Echtheit von Onlineinhalten selbst in Livesituationen nicht mehr ohne Weiteres angenommen werden kann.
Genaue Daten zum Ausmaß der Nutzung von Deepfaketechnologien liegen nicht vor, bei den wenigen dazu existierenden Studien ist nicht klar, wie belastbar sie sind. Insgesamt fehlt es an empirischer Forschung zum Ausmaß der Nutzung von Deepfaketechnologien.
Welchen Nutzen bieten Deepfaketechnologien in welchen Anwendungsbereichen?
Deepfaketechnologien bieten Potenziale für innovative Anwendungen insbesondere in den Bereichen Kunst und Unterhaltung, Bildung und Wissenschaft sowie Werbung und Marketing. Beispiele sind die lippensynchrone Übersetzung von Filmen, der didaktische Einsatz in Museen sowie satirische Darstellungen.
Allerdings gehen auch mit diesen Nutzungen indirekte Gefahren wie eine zunehmende Geringschätzung menschlicher Arbeit oder ein Verschwimmen der Grenzen von Wirklichkeit und Erfindung einher, wie sie für generative KI-Anwendungen allgemein beschrieben wurden.
Deepfakes können außerdem für die Strafverfolgung genutzt werden, etwa indem mit ihrer Hilfe Fahndungsaufrufe gestaltet werden oder der Zugang zu kriminellen Netzwerken ermöglicht wird.
Welche gesellschaftlichen Risiken ergeben sich aus der Möglichkeit, Deepfakes zu erstellen und zu verbreiten?
Deepfakes können bewusst mit dem Ziel produziert und verbreitet werden, die öffentliche Debatte oder den politischen Prozess zu beeinflussen. Bereits der Verdacht einer Fälschung kann ausreichen, um die Glaubwürdigkeit von Nachrichten und das Vertrauen auf ein gemeinsames Verständnis der Wirklichkeit infrage zu stellen.
Deepfakes werden zudem gezielt gegen Menschen angewendet, um deren Reputation für betrügerische Zwecke auszunutzen oder gar zu zerstören. Sie können Identitätsdiebstahl und die Überwindung von Identifizierungsverfahren erleichtern. Pornografische Deepfakes werden als Form der sexuellen Gewalt insbesondere gegen Frauen eingesetzt und können auf gesellschaftlicher Ebene eine Zurückdrängung von Frauen aus dem öffentlichen Raum bewirken.
Welche Chancen und Herausforderungen stellen Deepfakes speziell für das Rechtssystem dar?
Deepfakes können für eine Vielzahl von Anwendungen eingesetzt werden, um Menschen, Unternehmen und Institutionen zu schaden. Eine explizite Regulierung von Deepfakes existiert im deutschen Recht bisher nicht. Auf zivilrechtlicher Ebene können der Bildnisschutz, das allgemeine Persönlichkeitsrecht sowie das Urheber- und Datenschutzrecht herangezogen werden. Zudem sind verschiedene strafrechtliche Normen anwendbar. Allerdings ergeben sich Rechtslücken insbesondere bei sexualisierten Deepfakes von Erwachsenen sowie in Bezug auf den Schutz vor Diskriminierung und den Einsatz von Deepfakes durch Strafverfolgungsbehörden.
Ein besonderes Problem stellt die Rechtsdurchsetzung bei Deepfakes dar. Häufig werden Deepfakes im Ausland produziert und publiziert, zudem ist die Beweisführung aufgrund der fehlenden Transparenz erschwert und Betroffene berichten, dass seitens der Behörden häufig nur geringe Bereitschaft zu einer strafrechtlichen Verfolgung besteht.
In Deutschland wurde 2024 ein Gesetzesantrag zur Ergänzung des Strafgesetzbuchs in den Bundesrat eingebracht. Vor dem Hintergrund der grundsätzlich sowohl nutzbringenden als auch schädlichen Anwendungsmöglichkeiten von Deepfaketechnologien sowie der Sensibilität von staatlichen Eingriffen in den öffentlichen Diskurs erscheint eine sorgfältige Abwägung von Regulierungsoptionen unabdingbar. Perspektivisch bieten Deepfakes für das Rechtssystem auch Chancen, etwa im Bereich der Strafverfolgung oder beim Schutz von Zeugen in Gerichtsverfahren. Allerdings stellt die Möglichkeit, Beweismittel mit einfachen Mitteln in überzeugender Qualität fälschen zu können, eine Herausforderung dar.
Wie haben die Rechtssysteme anderer Länder und der EU auf Deepfakes reagiert?
In einigen Ländern wurden bereits Gesetze erlassen, um bestimmte Auswirkungen von Deepfakes, insbesondere im Bereich der nicht einvernehmlichen Pornografie, gezielt zu erfassen. In den USA besteht seit Mai 2025 eine landesweite Regelung zu pornografischen Deepfakes, in mehreren Bundesstaaten sind politische Deepfakes reguliert. In China werden Deepfakes wie allgemein synthetische Medieninhalte durch ein eigenes Gesetz erfasst. Kernpunkte dabei sind ein umfassendes Missbrauchsverbot sowie eine Klarnamen- und Kennzeichnungspflicht. Ausnahmen für die Meinungs- oder Kunstfreiheit sind nicht vorgesehen. Auf europäischer Ebene legt die KI-Verordnung den Entwicklern von Deepfaketechnologien Transparenzpflichten auf, der Digital Services Act reguliert die Verbreitung von Inhalten insbesondere über reichweitenstarke Plattformen.
Durch welche technischen Maßnahmen lässt sich einer missbräuchlichen Verwendung von Deepfaketechnologien begegnen?
Die Entwicklung von Detektoren, mit denen sich Deepfakes automatisiert erkennen lassen, wird in mehreren deutschen Forschungsprojekten gefördert. Sie sind allerdings häufig auf bestimmte Deepfakearten spezialisiert. Ein grundsätzliches Problem von Detektoren besteht darin, dass sie auch für die Verbesserung von Deepfakes genutzt werden können und somit selbst dazu beitragen, die Hürden für die Erkennung zu erhöhen.
Alternative Ansätze richten sich auf die Kennzeichnung und Verifizierung authentischer Inhalte und die Rückverfolgung des Ursprungs der Daten, z. B. durch digitale Wasserzeichen oder kryptografische Signierung. Auch diese können jedoch von böswilligen Akteuren manipuliert bzw. umgangen werden.
Welche weiteren Maßnahmen werden seitens der Wissenschaft empfohlen?
Neben der Entwicklung von technischen Maßnahmen zur Authentifizierung von Inhalten und der Schließung von Regelungslücken wird vorgeschlagen, durch Aufklärung und transparente Berichterstattung über die möglichen Gefahren von Deepfakes zu informieren und die Wachsamkeit und Medienkompetenz zu erhöhen. Selbstverpflichtungen etwa von Parteien können zum Schutz der öffentlichen Debatte beitragen. Sowohl die Ausbreitung von Deepfakes als auch ihre Auswirkungen auf Individuen und die Gesellschaft sowie mögliche Reaktionen durch staatliche wie zivilgesellschaftliche Institutionen darauf sind noch wenig erforscht.
Methodisches Vorgehen
Die Studie stützt sich methodisch auf Literaturrecherchen zum Stand der technologischen Entwicklung, zu Anwendungsbeispielen und Auswirkungen von Deepfakes. Um die Rechtslage fundiert darlegen und diskutieren zu können, wurde ein rechtswissenschaftliches Gutachten in Auftrag gegeben, eine weitere juristische Einschätzung und Aktualisierung erfolgte durch ein Kommentargutachten zum Berichtsentwurf.
Download
|
TA-Kompakt Nr. 3 Rechtliche und gesellschaftliche Herausforderungen und Potenziale von Deepfakes (PDF) Der TAB-Bericht bietet einen kompakten Überblick über Deepfake-Technologien, ihre gesellschaftlichen Auswirkungen und rechtliche Herausforderungen und zeigt konkrete Handlungsansätze für Politik, Wirtschaft und Zivilgesellschaft auf.
Die Reihe TA-Kompakt bedient den Informationsbedarf des Deutschen Bundestages bei aktuellen und kontroversen Themen in knapper Form. |
Im Bundestag
Der Abschlussbericht wurde am 17. Dezember 2025 dem Ausschuss für Forschung, Technologie, Raumfahrt und Technologiebewertung vorgestellt und von den Ausschussmitgliedern abgenommen.
Vorgang - Bericht auf dem Parlamentsserver (DIP)
Technikfolgenabschätzung (TA) Rechtliche und gesellschaftliche Herausforderungen und Potenziale von Deepfakes
In den Medien
- netzpolitik.org (27.02.2026), Bericht für den Bundestag: So gefährlich sind Deepfakes.
Frühere Publikation zum Thema
|
Themenkurzprofil Nr. 25
Deepfakes – Manipulation von Filmsequenzen
|
