Der Papst in weißer Puffer-Jacke, ein perfekt deutschsprechender Cristiano Ronaldo, Obama und Trump beim Basketballspiel: Dass das KI-generierte Bilder und Videos sind, sogenannte Deepfakes, ist hinlänglich bekannt. Doch woran erkennen Menschen Deepfakes? Dieser Frage gehen die Medienpädagogen Patrick Jäkel, Christina ter Glane und Ulrik Kowalk in einem Workshop für junge Menschen in Oldenburg nach.

Jäkel nimmt mit den Workshop-Teilnehmern das KI-generierte Papst-Foto von 2023 genauer unter die Lupe. Er zeigt, wie man die Fälschung optisch erkennen kann: "Zum Beispiel funktioniert der Brillenschatten nicht." Bei anderen Deepfakes können unnatürliche Bewegungen oder Verpixelungen auf die Fälschung hinweisen. Doch es sind nicht die technischen Feinheiten allein. Denn technisch werden die falschen und manipulierten Bilder und Videos immer überzeugender.

Um Deepfakes erkennen zu können, brauche es eine gesunde Distanz zu Medieninhalten, sagt Kommunikationswissenschaftler Alexander Godulla von der Universität Leipzig. "Wichtig ist es, sich zu fragen: Ist das plausibel und wahrscheinlich, was ich da sehe?" Das Bauchgefühl sei dabei kein guter Berater, denn die eigene Intuition könne trügen: "Es lohnt sich, darüber nachzudenken, ob das, was man mit eigenen Augen und Ohren sieht und hört, tatsächlich wahr ist."

Rasante Entwicklung

Das bestätigt auch Studentin Sarina Kugele, die mit zwölf weiteren jungen Erwachsenen an dem Workshop der Initiative "Netzwerkstatt" in Oldenburg teilnimmt. Seit 2019 engagiert sich die 23-Jährige mit den anderen jungen Menschen zwischen 16 und 25 Jahren und den Medienpädagogen Jäkel, ter Glane und Kowalk für Zivilcourage im Netz. Eigentlich sei es jedem klar, dass "der Papst nicht mit einer Tausend-Euro-Jacke rumrennt", sagt Kugele. Der 25-jährige Jannik Kahsnitz gibt zu: "Hätte ich dieses Wissen, wie der Papst sich kleidet, nicht, wäre ich vielleicht dem Foto auf den Leim gegangen wäre."

Die Medienpädagogen weisen auf die rasante Entwicklung der Deepfake-Technologie hin. Als Beispiel nehmen sie Obama und Trump auf dem Basketballfeld - ein Deepfake, das auch mit dem KI-Programm Midjourney erstellt wurde. Im März 2022 ist der Fake schnell enttarnt: Obama sieht gar nicht aus wie ein Mensch, Trumps Körper ist deformiert. Das gleiche Fake-Bild sieht ein Jahr später schon authentischer aus: Zwar sind die Proportionen noch immer nicht perfekt, doch auf den ersten Blick überzeugt das Bild.

Dass Deepfakes nicht nur zum Schmunzeln sind, zeigen die Warnungen des Bundesamtes für IT-Sicherheit. Es sei möglich, Personen zu verleumden und glaubwürdige Desinformationskampagnen durchzuführen, "indem manipulierte Medieninhalte von Schlüsselpersonen erzeugt und verbreitet werden", heißt es. Die Gefahr solcher Kampagnen im Netz für die Gesellschaft bestätigt auch ter Glane: "Wir können Demokratie- und Medienkompetenz nicht getrennt denken."

"Deepfakes haben auch einen Anteil an der Polarisierung"

Negative Auswirkungen könnten Falschinformationen auf Wahlentscheidungen haben, etwa im Superwahljahr 2024. Neben der Europa- und US-Wahl werden die Landtage in Brandenburg, Sachsen und Thüringen gewählt. "Wenn Sie Menschen mit ausreichend Deepfakes und Cheapfakes konfrontieren, kann es sein, dass sie irgendwann gar nichts mehr glauben", sagt Kommunikationswissenschaftler Godulla. Solche Cheapfakes - auf Deutsch "billige" oder "seichte Fälschungen" - sind audiovisuelle Fälschungen mit einfachen Mitteln, die technisch weniger anspruchsvoll sind.

Für Godulla ist ein Hauptproblem, dass mittels Deepfakes Spott und Häme über politische Gegner verbreitet werden. "Politische Deepfakes haben auch einen Anteil an der Polarisierung: rechts gegen links, links gegen rechts." Eine besondere Gefahr geht von Deepfakes nach Ansicht des Wissenschaftlers für Menschen mit einer engen politischen Weltsicht aus, die in ihrer "Blase" lebten: "Wirklich gefährdet sind Personen, die sich nicht über Qualitätsmedien informieren, sondern nur über soziale Medien."

Die Workshop-Teilnehmer in Oldenburg diskutieren derweil weiter am runden Tisch darüber, welche Recherchen und Hintergrundchecks bei einem Deepfake-Verdacht sinnvoll sind. Dafür empfehlen ter Glane und ihre Kollegen die Faktenchecks von Correctiv, Mimikama und den Faktenfuchs des Bayrischen Rundfunks.

Weitere möglichst unabhängige Quellen zum gleichen Sachverhalt zu finden, ist auch der Tipp von Godulla. Und er rät: "Wenn ich auf einer Plattform häufig mit irritierenden Botschaften konfrontiert bin, sollte ich überlegen, ob ich diese Plattform nutzen möchte."

Was sind Deepfakes?

Deepfakes sind mithilfe Künstlicher Intelligenz (KI) erstellte Video-, Bild- und Audioaufnahmen, die authentisch wirken. Die Manipulationen sind häufig so geschickt, dass man den Aufnahmen kaum anhört oder ansieht, dass es sich um Fälschungen handelt. Das jeweilige KI-Programm, das Deepfakes erstellen soll, wird dafür zuvor mit authentischen Aufnahmen "gefüttert". So erkennt es unter anderem Stimmmuster, Mimik und Lippenbewegungen.

Dabei wird "Deep Learning" verwendet, eine Methode, bei der tiefe neuronale Netze, also komplexe Verkettungen Künstlicher Intelligenzen, eingesetzt werden. So lässt sich der Begriff Deepfake herleiten, er ist die Mischung aus "Deep Learning" und "Fake" - auf Deutsch "Fälschung".

Cheapfakes (auch Shallowfakes genannt) - auf Deutsch "billige" oder "seichte Fälschungen" - sind audiovisuelle Fälschungen mit einfachen Mitteln, die technisch weniger anspruchsvoll sind.

Deepfakes werden beispielsweise für Desinformation und Propaganda eingesetzt. Sie können kriminelle Handlungen ermöglichen und rufschädigend für Personen, Institutionen und Unternehmen sein. Chancen bietet die Technologie beispielsweise, wenn sie in Spielfilmen eingesetzt wird, um bei synchronisierten Fassungen die Mundbewegungen der Schauspieler der Zielsprache anzupassen.

Kommentare

Diskutiere jetzt mit und verfasse einen Kommentar.

Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.

Anmelden