Deepfakes – Potenziale, Risiken und rechtliche Herausforderungen

Der TAB-Bericht bietet einen kompakten Überblick über Deepfake-Technologien, ihre gesellschaftlichen Auswirkungen und rechtliche Herausforderungen und zeigt konkrete Handlungsansätze für Politik, Wirtschaft und Zivilgesellschaft auf.
Cover TA-Kompakt Nr. 3 zu Deepfakes
Neue TAB-Studie zu Risiken und Potenzialen von Deepfakes mit besonderem Fokus auf rechtliche Herausforderungen.

Deepfakes sind mithilfe von KI erzeugte Bild‑, Audio‑ und Videoinhalte, die fälschlicherweise den Eindruck von Authentizität erwecken. Seit ihrem ersten Aufkommen im Jahr 2017 haben sich die Technologien zu ihrer Erstellung rasant weiterentwickelt. Während autoregressive Modelle, Autoencoder und Generative Adversarial Networks (GAN) schon seit Längerem eine wichtige Rolle spielen, ermöglichen die neueren Diffusionsmodelle die Erstellung qualitativ hochwertiger Fälschungen auch ohne umfangreiches Ausgangsmaterial.

Die Technologien können für lippensynchrone Übersetzungen in Filmen und Werbeclips, für die didaktische Arbeit in Museen oder auch zur Unterstützung der Strafverfolgung eingesetzt werden. Mit anderen Anwendungen gehen jedoch erhebliche Risiken einher: Politische Desinformation, bildbasierte sexualisierte Gewalt und betrügerische Identitätsmanipulationen stellen gesellschaftliche Bedrohungen dar.

Rechtlich gibt es in Deutschland bislang keine ausdrückliche Regulierung von Deepfakes. Zwar werden viele Fälle durch bestehende zivil‑ und strafrechtliche Normen erfasst, doch deren Durchsetzung ist häufig erschwert und es bestehen Lücken insbesondere im Bereich sexualisierter Deepfakes. Ein Gesetzentwurf aus dem Jahr 2024, der das Strafgesetzbuch ergänzen soll, wurde bereits in den Bundestag eingebracht. Auf internationaler Ebene gibt es spezifische Regelungen etwa in den USA und Großbritannien sowie Rahmengesetze in China (Deep Synthesis Regulation) und der EU (KI-Verordnung und Digital Services Act)..

In technologischer Hinsicht wird die Weiterentwicklung von Detektions- und Verifikationsverfahren als Handlungsoption hervorgehoben.  In Deutschland wird diese etwa durch das Bundesministerium für Forschung, Technologie und Raumfahrt und die Bundesagentur für Sprunginnovationen (SPRIND) gefördert. Neben gezielten Anpassungen des Rechtsrahmens stellen Maßnahmen von Staat und Zivilgesellschaft zur Stärkung von Medien- und KI-Kompetenzen zentrale Handlungsoptionen dar. Weitere Instrumente zur Begrenzung schädlicher Anwendungen von Deepfakes sind freiwillige Selbstverpflichtungen politischer Akteure und von Medienorganisationen sowie die interdisziplinäre und internationale Zusammenarbeit.

Die wichtigsten Ergebnisse sind in neun Fragen und Antworten zusammengefasst, die online und im TA-Kompakt Nr. 3 verfügbar sind.

Die  Reihe TA-Kompakt bedient den Informationsbedarf des Deutschen Bundestages bei aktuellen und kontroversen Themen in knapper Form.

02.03.2026

Download und weitere Informationen