Spätestens durch aktuelle mediale Diskussionen – unter anderem im Zusammenhang mit Collien Fernandes und Christian Ulmen – ist der Begriff "Deepfake" in den öffentlichen Fokus gerückt. Dabei wird deutlich, dass es sich nicht mehr um ein Randphänomen handelt, sondern um eine technologische Entwicklung mit konkreten gesellschaftlichen Auswirkungen. Parallel dazu wächst der politische Druck, die rechtlichen Rahmenbedingungen anzupassen, da die bestehende Gesetzgebung mit der Geschwindigkeit der technischen Entwicklung bislang nicht Schritt hält.

Was sind Deepfakes?: Die Technik hinter täuschend echten Bildern

Der Begriff bezeichnet mithilfe künstlicher Intelligenz erzeugte oder veränderte Medieninhalte, die täuschend echt wirken. Grundlage ist meist "Deep Learning", ein Verfahren des maschinellen Lernens, bei dem große Datenmengen genutzt werden, um Muster zu erkennen und nachzubilden.

Konkret bedeutet das: Bilder, Videos oder Audiodateien werden so manipuliert, dass Personen scheinbar Dinge tun oder sagen, die in Wirklichkeit nie passiert sind. Besonders häufig werden Gesichter ausgetauscht oder Stimmen imitiert. Die Qualität dieser Fälschungen ist inzwischen so hoch, dass sie für uns oft kaum noch als solche erkennbar sind.

Wie Deepfakes entstehen – Wer kann sie erstellen?

Technisch gesehen basieren Deepfakes auf neuronalen Netzwerken, die mit zahlreichen Bildern oder Videosequenzen einer Person trainiert werden. Die KI "lernt” dabei, wie diese Person aussieht, wie sie spricht und sich bewegt. Auf dieser Grundlage kann sie neue Inhalte generieren oder bestehende verändern.

Während diese Technologie ursprünglich vor allem im professionellen Kontext genutzt wurde, hat sich der Zugang in den letzten Jahren stark vereinfacht. Inzwischen existieren frei verfügbare Programme und Apps, mit denen sich entsprechende Inhalte erstellen lassen. Dafür sind weder umfangreiche Programmierkenntnisse noch teure Hardware zwingend notwendig.

Das bedeutet: Grundsätzlich kann heute nahezu jede Person mit ausreichend Zeit und etwas technischem Verständnis Deepfakes erstellen. Voraussetzung ist lediglich, dass ausreichend Bild- oder Videomaterial der betreffenden Person verfügbar ist. Dieses kann sowohl aus öffentlich zugänglichen Quellen als auch aus privaten Kontexten stammen.

Die möglichen Einsatzbereiche von Deepfakes sind vielfältig und reichen von satirischen oder künstlerischen Anwendungen bis hin zu gezieltem Missbrauch. Problematisch wird die Technologie insbesondere dann, wenn sie eingesetzt wird, um Menschen zu täuschen, zu diffamieren oder zu schädigen.

So können Deepfakes genutzt werden, um falsche Aussagen zu verbreiten, Personen bloßzustellen oder ihnen Handlungen zuzuschreiben, die sie nie begangen haben. Besonders gravierend sind Fälle, in denen Deepfakes zur Herstellung sexualisierter Inhalte ohne Einwilligung der betroffenen Person verwendet werden, wie im Fall von Collien Fernandes. Dies stellt einen massiven Eingriff in die Persönlichkeitsrechte dar und kann erhebliche psychische, soziale und berufliche Folgen haben.

Rechtliche Lage in Deutschland und internationaler Vergleich

In Bezug auf Deepfakes ist die aktuelle Rechtslage in Deutschland noch nicht eindeutig geregelt. Bislang existiert kein eigenständiger Straftatbestand, der Deepfakes als solche erfasst. Je nach Einzelfall finden stattdessen bestehende Gesetze Anwendung, etwa im Bereich des Persönlichkeitsrechts, des Datenschutzes oder des Strafrechts (z. B. bei Beleidigung, Verleumdung oder der Verletzung des höchstpersönlichen Lebensbereichs).

Diese unsichere Rechtslage führt dazu, dass viele Fälle nur schwer einzuordnen sind und teilweise in rechtlichen Grauzonen verbleiben. Auf politischer Ebene wird daher zunehmend über eine Verschärfung der Regelungen diskutiert, sowohl in Deutschland als auch auf europäischer Ebene im Rahmen der KI-Regulierung.

Andere Länder haben bereits spezifischere Maßnahmen eingeführt, etwa im Zusammenhang mit Wahlmanipulation oder der Verbreitung nicht einvernehmlicher sexualisierter Deepfakes. Insgesamt zeigt sich jedoch international ein ähnliches Bild: Die Gesetzgebung reagiert langsamer als die technologische Entwicklung.

Unabhängig von der juristischen Bewertung gilt jedoch, dass der missbräuchliche Einsatz von Deepfakes eine erhebliche Grenzüberschreitung darstellt und gesellschaftlich nicht akzeptabel ist.

Für die pädagogische Arbeit ist es wichtig, das Thema verständlich und altersgerecht zu vermitteln. Eine mögliche Herangehensweise besteht darin, Deepfakes als eine Form digitaler Täuschung zu beschreiben, bei der mithilfe von Computern Inhalte erstellt werden, die real wirken, obwohl sie es nicht sind.

Ziel sollte es sein, ein grundlegendes Bewusstsein für die Existenz solcher Technologien zu schaffen, ohne unnötig zu verunsichern. Gleichzeitig ist es wichtig, die möglichen Folgen zu thematisieren und ein Verständnis für Privatsphäre und Persönlichkeitsrechte zu fördern.

Prävention und Medienkompetenz: Sicherer Umgang mit Deepfakes

Auch wenn die Verantwortung für Missbrauch eindeutig bei den Täter:innen liegt, können präventive Maßnahmen dazu beitragen, Risiken zu reduzieren und die Medienkompetenz zu stärken.

Für den eigenen Schutz:

  • Keine persönlichen Bilder an unbekannte Personen weitergeben.
  • Privatsphäre-Einstellungen in sozialen Netzwerken bewusst nutzen
  • Überlegen, ob Profile öffentlich zugänglich sein müssen.
  • Sensibel mit der Veröffentlichung eigener Inhalte umgehen

Im Umgang mit anderen:

  • Keine Bilder oder Videos anderer Personen ohne deren Einwilligung verwenden.
  • Keine Inhalte erstellen oder teilen, die andere bloßstellen oder schädigen könnten.

Besonders vorsichtig mit Bildern von Kindern umgehen, auch im institutionellen Kontext.

Gerade bei Fotos von Kindern ist besondere Zurückhaltung geboten. Wenn ihr z. B. mit Jugendlichen arbeitet, solltet ihr trotz Einverständniserklärung der Eltern abwägen, ob eine Veröffentlichung notwendig und verantwortbar ist. Einmal veröffentlichte Inhalte können dauerhaft im Umlauf bleiben und potenziell missbräuchlich verwendet werden.

Ergänzend dazu gibt es auf der Partnerseite "Ausstellung leihen" eine Ausstellung zum Thema Fake News und speziell zum Thema Deep Fakes, die sich insbesondere für Schulen, Gemeinden und Bildungseinrichtungen eignet. Sie bietet einen niederschwelligen Zugang zum Thema Desinformation und kann sinnvoll mit der Auseinandersetzung zu Deepfakes kombiniert werden.

Praktische Tipps für Kinder, Jugendliche und Pädagog:innen

Deepfakes sind mit Hilfe von künstlicher Intelligenz erstellte gefälschte Bilder oder Videos. Sie sehen oft so echt aus, dass man kaum erkennt, dass sie nicht echt sind. So kann beispielsweise dein Gesicht aus Fotos genommen und in ein anderes Video eingesetzt werden. Dadurch wirkt es, als würdest du etwas tun oder sagen, was du in Wirklichkeit nie gemacht hast.

Das kann ein großes Problem sein, weil solche Inhalte genutzt werden können, um Menschen bloßzustellen, Gerüchte zu verbreiten oder ihnen zu schaden. Wichtig ist deshalb: Wenn jemand so etwas von dir erstellt, ist das nicht deine Schuld, sondern die der Person, die den Deepfake erstellt oder geteilt hat.

Trotzdem kannst du darauf achten, vorsichtig mit deinen eigenen Bildern umzugehen. Teile Fotos und Videos nur mit Menschen, denen du wirklich vertraust, und überlege dir gut, was du öffentlich im Internet postest. Nutze auch die Privatsphäre-Einstellungen in sozialen Netzwerken, um zu kontrollieren, wer deine Inhalte sehen kann.

Genauso wichtig ist es, selbst keine Deepfakes von anderen zu erstellen und solche Inhalte nicht weiterzuverbreiten. Auch wenn es wie ein Spaß wirkt, kann es anderen schaden und ihre Privatsphäre verletzen.