„Nächste Stufe der Desinformation“: Wie wirken Fake-Videos?

Giffey und Klitschko bei Videokonferenz Fake Franziska Giffey und der "manipulierte Klitschko" bei einer Videokonferenz im Juni. Foto: Senatskanzlei Berlin / Screenshot Twitter

Das Fake-Video von Vitali Klitschko zielte auch darauf, Vertrauen in den Staat zu erschüttern, sagt der Psychologieprofessor Christian Montag. Was lässt sich über die psychologische Wirkung von sogenannten “Cheap Fake”- und “Deep Fake”-Videos sagen, und wie schützt man sich vor ihnen?

| Erschienen im Feuilleton |

Wer den Schaden hat, muss für den Spott im Netz nicht sorgen: Nachdem die Se­natskanzlei in Berlin bekanntgab, dass die Regierende Bürgermeisterin Franziska Giffey (SPD) einer Videomanipulation von Kiews Bürgermeister Vitali Klitschko durch zwei russische Komiker aufgesessen war, lief sie wieder an, die kollektive Spott- und Ironiemaschine auf Twitter und in anderen sozialen Netzwerken. Bemerkungen zu Giffeys aberkanntem Doktortitel („Den echten Vitali Klitschko erkennt man am Doktortitel, die echte Franziska Giffey nicht“) wechselten sich ab mit der Diskreditierung der Politik im Allgemeinen („Wie lange leistet sich Deutschland noch so unqualifizierte Politiker?“) und der Sorge vor Ma­nipulation („Was mir wirklich Angst macht: Wenn man nicht mehr weiß, was echt ist und was nicht“).

Was ging da vor sich? Bei aller Ironie und Häme sprach aus manchen Tweets auch Verunsicherung. Diese zu erklären ist nicht einfach, weil es kaum Forschung darüber gibt, wie Fake-Videos auf den Menschen wirken. Zudem richtet sich die gezielte Manipulation an mindestens zwei Adressaten: Hier sind es die Politikerin Giffey und das auf sie reagierende Publikum im Netz.

Der Psychologieprofessor Christian Montag von der Universität Ulm forscht zu manipulierten Medieninhalten und ih­rer Wirkung auf die menschliche Psyche. „Dass die russische Regierung seit Jahren in Missinformationskampagnen investiert, ist bekannt. Solche Fake-Videos stellen wohl nun die nächste Stufe der Verbreitung von Missinformationen dar. Eigentlich war es nur eine Frage der Zeit, bis wir solche Videos zu sehen bekommen“, sagt Montag. Dabei ziele der „Streich“ der indirekt vom russischen Staat finanzierten Komiker Vovan und Lexus seiner Meinung nach auch darauf, Vertrauen in Regierende zu erschüttern und für Unsicherheit unter den Bürgern zu sorgen.

„Deep Fakes“ und „Cheap Fakes“: Manipulierte Videos im Netz

Auf lange Sicht kann die Gesellschaft dadurch Schaden nehmen. Denn wo das Vertrauen schwindet, schrumpfen Möglichkeitsräume: Wer vertraut, geht zwar ein Risiko ein, zieht daraus aber einen Vorteil – es spart Zeit, nicht alles kontrollieren zu müssen. Im Fall der hinters Licht geführten Franziska Giffey ließe sich fragen, ob sie und ihre Mitarbeiter nicht etwas zu sehr vertraut haben. Die Anbahnung des Gesprächs, die dilet­tantisch-fingierte E-Mail-Adresse: Kontrolle kann auch Zeit ersparen, wenn man sich im Anschluss nicht mit der Presse herumschlagen muss, um zu erklären, dass erst Ungereimtheiten im Telefonat selbst Zweifel weckten.

Technisch unterscheiden Fachleute so­genannte Deep-Fake- von Cheap-Fake-Videos. Erstere basieren auf Künstlicher Intelligenz und sogenanntem Machine Learning, bei dem eine Software mit einer erheblichen Menge an Videodaten gefüttert wird, um schließlich passend zu einem vorgegebenen Text selbständig passende Videosequenzen zu erzeugen, als würde dieser Text von der gezeigten Person ge­sprochen. Dagegen werden bei „Cheap Fakes“ lediglich alte Aufnahmen so zu­sammengeschnitten und neu vertont, dass sie glaubhaft werden.

Newsletter

Melden Sie sich für den monatlichen Reporterdesk-Newsletter an und erhalten Sie die neuesten Geschichten direkt in Ihr Postfach. Wie wir Ihre Daten verwenden, erfahren Sie in unserer Datenschutzerklärung.

Aufschluss darüber, was uns für Fakes anfällig macht, gibt eine Studie des Psychologen Montag. Zusammen mit Kolleginnen und Kollegen hat er untersucht, welche Persönlichkeitsmerkmale uns möglicherweise für manipulierte Inhalten im Netz empfänglich machen – und welche uns schützen. Das Ergebnis überraschte ihn selbst, sagt er. In der Studie, die im Wissenschaftsjournal Heliyon erschienen ist, versuchten die Forscher anhand einer Umfrage unter fünfhundert Teilnehmern herauszufinden, welche Rolle Intelligenz, Vertrauen und weitere Persönlichkeitseigenschaften für das Er­kennen von manipulierten Inhalten im Netz spielen. Dabei war der wichtigste Faktor nicht etwa Intelligenz oder eines der fünf grundlegenden Merkmale, die Psychologen als „Big Five“ bezeichnen – Offenheit für Erfahrung, Gewissenhaftigkeit, Extraversion, Verträglichkeit, Neu­rotizismus. „Entscheidend war der Faktor interpersonelles Vertrauen. Wer angegeben hatte, eher Vertrauen in staatliche Institutionen und andere Menschen zu haben, entlarvte manipulierte Inhalte häufiger“, sagt Montag.

  • Haben Sie Hinweise zu unseren Artikeln? Verfügen Sie über Einblicke in Bereiche, die anderen verborgen bleiben? Wollen Sie Missstände mithilfe unseres Teams aufdecken? Dann kontaktieren Sie uns gerne unter kontakt@reporterdesk.de

Studienteilnehmende, die aussagten, eher wenig Vertrauen in Institutionen zu haben, tendierten dagegen eher dazu, un­wahre Inhalte für bare Münze zu nehmen. Zwar ging es in der Studie um das Erkennen von Fake News und nicht um Fake-Videos, doch Montag geht davon aus, „dass Vertrauen ebenfalls beim Er­kennen von Fake-Videos eine relevante Funktion einnehmen könnte“.

Für digitale Untergangsszenarien ist Rebekka Weiß, Leiterin der Abteilung „Vertrauen und Sicherheit“ beim Branchenverband der deutschen Informations- und Telekommunikationsbranche, Bitkom, nicht zu haben. „Grundsätzlich ist das Thema ja nicht neu, der Giffey-Vorfall zeigt aber, wie wichtig es vor al­lem in Krisensituationen ist, achtsam zu sein“, sagt die IT-Expertin. Sie rechnet damit, dass digitale Manipulationen dieser Art in der Auseinandersetzung zwischen Staaten zunehmen.

Fake-Videos: Passt die Emotiona­lität zu der Erfahrung mit der Person?

Experten warnen seit Jahren vor technologisch elaborierten Deep-Fake-Videos, deren Produktion ungleich mehr Re­chenleistung kostet als das aus alten Filmschnipseln zusammenmontierte Vi­deo der russischen Komiker. Zumindest nach aktuellem Stand sind auch diese komplexeren Fälschungen für das ge­schulte Auge als solche zu erkennen. „Es gibt verschiedene Bruchstellen, zum Beispiel Fehler bei Licht- und Schattendarstellungen, unpassende Lippensynchronisation oder unnatürliche Lichtspiegelungen in der Pupille“, sagt Weiß. Die oft beschworene Medienkompetenz hilft: Er­scheint der Inhalt beziehungsweise das Gesagte plausibel? Passt die Emotiona­lität zu der Erfahrung mit der Person? Auf welchem Wege erfolgte die Vermittlung des Gesprächs?

Umfragen von Bitkom legten nahe, dass manipulierende Texte und manipulierte Bilder und Videos das Vertrauen in digitale Tools bislang nicht erodieren lassen, sondern stattdessen das Bewusstsein für Fälschungen steige. „Ganz wichtig für Vertrauen in der digitalen Gesellschaft ist eine neue Fehlerkultur: Jede oder je­der kann mal auf ein gefälschtes Bild oder Video reinfallen“, sagt Weiß. Das zu erkennen und sich in dieser Medienkompetenz zu entwickeln sei die große He­rausforderung, „weil wir während der Entwicklung der Technologie nicht stillstehen können, dafür geht sie zu schnell“.

Vielleicht sollte man es am Ende mit Decartes sehen. Der schreibt 1641 in seinen „Meditationen über die Grundlagen der Philosophie“: „Alles nämlich, was ich bisher am ehesten für wahr gehalten habe, verdanke ich den Sinnen oder der Vermittlung der Sinne. Nun aber bin ich dahintergekommen, dass diese uns bisweilen täuschen, und es ist ein Gebot der Klugheit, denen niemals ganz zu trauen, die uns auch nur einmal getäuscht haben.“ LEON SCHERFIG

| Erschienen am 17. Juli 2022 |

Lesen Sie auch: „Künstliche Intelligenz ist wie ein erfahrener Kollege“