Nahaufnahme einer Gesichtshälfte wird mit elektronischen Punkten nachgezeichnet.

Der technologische Fortschritt erweitert das Repertoire für Falschmeldungen.

Dee­pfa­kes: Raf­fi­nesse braucht es nicht

Viorela Dan vom Institut für Medien, Gesellschaft und Kommunikation beschäftigt sich mit Fehlinformationen im Spiegel des (technologischen) Medienwandels. Warum und wie gefälschte Inhalte in der Gesellschaft stets auf fruchtbaren Boden fallen, sieht sich die Kommunikationswissenschaftlerin unter anderem am Beispiel der so genannten Deepfakes an.

wissenswert: Was genau versteht man unter „Deepfakes“, Frau Dan?

Viorela Dan: Deepfakes sind gefälschte Inhalte, die mit Hilfe künstlicher Intelligenz erstellt wurden. Diese Fälschungen können in Form von Texten oder Bildern vorkommen, häufig aber auch als Audio- oder Videoproduktionen. Durch den Einsatz von künstlicher Intelligenz ist es möglich, Inhalte von Grund auf zu fälschen, es ist also nicht nötig, eine „echte“ Grundlage zu haben. Ein beliebtes Motiv sind zum Beispiel Videos von Politikerinnen und Politikern, denen Worte in den Mund gelegt werden, die sie nie gesagt haben. Aufgrund des technologischen Fortschritts der letzten Jahre sind diese Inhalte inzwischen täuschend echt bzw. kaum mehr von einem echten Video zu unterscheiden.

wissenswert: Können Sie uns kurz schildern, wie das Erstellen dieser täuschend echten falschen Videos funktioniert?

Dan: Die KI identifiziert Merkmale einer Person auf Basis möglichst vieler Aufnahmen. Dabei geht es um Faktoren wie: Wo hat eine Person ein Muttermal? Wie verändert sich das Gesicht, wenn die Person verwundert ist, wenn sie lächelt? Wie viele Zähne werden gezeigt, wenn die Person lächelt? Das alles kann systematisch mit der KI identifiziert werden. Und da wir Menschen doch ein relativ begrenztes Repertoire an Grimassen haben, kann die KI anhand von ein paar Fotos oder Videos relativ rasch eine Art Marionette erstellen. Dafür gibt es einige kostenlose Programme, die erstaunlich professionelle Ergebnisse liefern. Mit Unterstützung einer Videoagentur habe ich im Rahmen eines sozialwissenschaftlichen Experiments zur Wirkung von Deepfake-Videos selbst mit geringem finanziellem Einsatz solche Inhalte erstellt. Der Schauspieler, den ich dafür engagiert hatten, meinte anschließend zu mir, dass die von ihm erstellten Fake-Videos nicht einmal seine Mutter als solche identifizieren könnte. Es ist heute kein Problem mehr, ein Vorhaben dieser Art wirklich professionell umzusetzen.

Mehr zu diesem Thema können Sie im Wissenschaftspodcast der Uni Innsbruck nachhören: Die Kommunikationswissenschaftlerin Viorela Dan war zu Gast in „Zeit für Wissenschaft“ und bietet im Gespräch mit Melanie Bartos weitere Einblicke in ihre Arbeit, die von einer allgemeinen Einschätzung des Medien- und Gesellschaftswandels bis hin zur Erstellung von Fake-Deepfake-Videos reicht:

ZfW_052 - Deepfakes

wissenswert: Wie haben Sie diese Studie angelegt und was haben Sie über die Wirkung von Deepfake-Videos gelernt?

Dan: Zunächst war es notwendig, drei verschiedene Versionen der Videos zu erstellen, die ich als experimentelle Stimuli verwendet habe – d.h., die ich dann Proband:innen gezeigt habe. Die Situation, die dort gezeigt wurde, war immer die gleiche, nur der Grad der Professionalität hat sozusagen variiert. Mein fiktives Szenario zeigte einen erfundenen Politiker in einem Restaurant im Gespräch mit einer anderen Person. Dieses Gespräch, so die Behauptung im Szenario, wurde heimlich gefilmt und eher dunkel gehalten bzgl. der Belichtung. Inhalt und Setting waren also immer gleich, nur die Machart unterschiedlich: Das erste Video zeigte die Personen real aufgenommen in dieser Situation ohne weitere Bearbeitungen. In der zweiten Version habe ich über diese Aufnahme eine andere Audiospur gelegt, die nicht zu den Lippenbewegungen passte – so entstand ein so genanntes Cheapfake-Video, also eine Billigfälschung. Und die dritte Variante war ein gut gemachtes Deepfake-Video, das ich auf Basis anderer Aufnahmen des fiktiven Politikers extra erstellen habe lassen. In dieser Gesprächssituation sagt der Politiker mehrere unschöne Dinge, die etwa darauf hindeuteten, dass der Politiker Frauen sexuell belästigt und verschiedene gesellschaftliche Gruppen diskriminiert. Um zu testen, wie das tatsächlich wirkt, haben ich dann über 2000 Personen diese Videos gezeigt: In Gruppen aufgeteilt haben sie eine dieser drei Varianten zu sehen bekommen – real, Cheapfake, Deepfake – und mussten dann rückmelden, wie sie den Politiker bewerten, etwa im Hinblick auf Einstellungen, Emotionen oder Wahlabsichten. Und da habe ich festgestellt, dass es de facto keinen Unterschied macht. Die Reputation dieses fiktiven Politikers war in der Wahrnehmung der Studienteilnehmer:innen stark gesunken – und zwar unabhängig davon, welche der Versionen sie gesehen hatten.

wissenswert: Das heißt, der Aufwand lohnt sich gar nicht wirklich, wenn man gefälschte Inhalte vermitteln will?

Dan: Es zeigt zumindest, dass es keinen besonders raffinierten Zugang oder große finanzielle Mittel braucht, wenn man etwa die Absicht verfolgt, eine Person des öffentlichen Lebens zu diskreditieren. Auch „billig“ produzierte Inhalte können die gewünschten Effekte erzielen.

wissenswert: Aber warum ist das so?

Dan: Professionelle Deepfakes sind zweifellos eine beeindruckende Möglichkeit, Menschen zu täuschen. Aber wir Menschen sind gar nicht so anspruchsvoll. Wir lassen uns auch viel leichter täuschen als das. Cheapfakes reichen aus. Das war schon immer möglich. Außerdem ist es viel leichter, Menschen mit Unwahrheiten zu fesseln. Lügen lassen sich wie Märchen erzählen, zum Beispiel Gut gegen Böse, und Menschen mögen Märchen. Geschichten zu erfinden ist wesentlich einfacher als die – häufig komplexe – Wahrheit zu vermitteln. Der technologische Fortschritt im Bereich künstlicher Intelligenz ist also nicht die Gefahr, über die wir ausführlich sprechen sollen. Es ist aber gut, dass wir, stimuliert durch diesen technologischen Fortschritt, überhaupt darüber sprechen, wie und warum Menschen auf Fehlinformationen reinfallen – und zwar unabhängig von ihrer Machart. Im Journalismus wurde darauf in den letzten Jahren zunehmend mit dem Format der Faktenchecks reagiert. In meiner Studie konnten Faktenchecks die negative Wirkung der gefälschten Videos rückgängig machen. Das halte ich für eine gute Antwort, auch wenn die Aufbereitung journalistischer Faktenchecks sicherlich eingängiger sein könnte.

 

 

Viorela Dan

Viorela Dan

Viorela Dan ist seit März 2023 Assistenzprofessorin für Mediendynamik und gesellschaftlichen Wandel am Institut für Medien, Gesellschaft und Kommunikation der Universität Innsbruck. Zuvor war sie Akademische Rätin am Institut für Kommunikationswissenschaft und Medienforschung der Ludwig-Maximilians-Universität München. Dan war von 2011 bis 2017 Wissenschaftliche Mitarbeiterin am Institut für Publizistik- und Kommunikationswissenschaft der Freien Universität Berlin. Zahlreiche Forschungsaufenthalte führten sie ins Ausland, u.a. in die USA oder nach Norwegen. Ihre Arbeit wurde mehrfach international ausgezeichnet.

Dieser Beitrag ist in der Juni-2023-Ausgabe des Magazins „wissenswert“ erschienen. Eine digitale Version ist hier zu finden.

    Nach oben scrollen