Zum Hauptinhalt springen

Interview zu manipulierten Videos«Deep-Fake-Porno ist ein geschlechtsspezifisches Phänomen»

Fake-Videos und künstliche Intelligenz bedrohten die Demokratie, sagt die britische Politkommentatorin Nina Schick. Aufgekommen seien gefälschte Videos zuerst in der Pornografie.

Links Donald Trump, rechts immer noch Donald Trump, aber nun mit dem Gesicht von Nicolas Cage.
Links Donald Trump, rechts immer noch Donald Trump, aber nun mit dem Gesicht von Nicolas Cage.
Foto: PD

Frau Schick, welcher gefälschte Clip bringt Sie zum Lachen?

Hmm… es gibt viele urkomische Deep Fakes. Man denke an jene mit Nicolas Cage. Aber ich unterscheide zwischen synthetischen Medieninhalten und Deep Fakes. Synthetische Medien sind teilweise oder ganz mit Techniken künstlicher Intelligenz (KI) erstellt. Wenn Fotos oder Videos bewusst zur Falsch- oder Desinformation verwendet werden, nenne ich sie Deep Fakes. Solche Clips mit Cage sind also gar keine Deep Fakes.

Die synthetischen Medien entwickeln sich rasend schnell. In Zukunft werden fast alle Videos künstlich erstellt sein.

Genau. Laut Experten werden in fünf bis sieben Jahren 90 Prozent aller Videoinhalte synthetisch erzeugt sein. Da kommt mehr auf uns zu als nur Deep-Fake-Desinformation: Vor uns liegt eine synthetische Medienrevolution, wenn die gesamte Produktion von Onlineinhalten durch künstliche Intelligenz generiert wird. Dafür wird es viele praktische und kommerzielle Anwendungen geben, etwa in der Unternehmenskommunikation. Auch die Filmindustrie wird davon profitieren.

Werden wir von der Entwicklung überrollt?

Ja. Denken Sie an die gewaltigen Veränderungen in den letzten 30 Jahren: zuerst das Internet, dann kamen die sozialen Medien und das Smartphone, und jetzt steht die Revolution durch synthetische Medien bevor. Wir konnten – schon vor der KI – nicht Schritt halten und haben keinerlei Schutzmassnahmen gegen den Missbrauch der Technik aufgebaut. Die jüngste Bedrohung sind jetzt Deep Fakes. Ich verwende den Begriff der Infokalypse, um dieses Informationsökosystem zu beschreiben, das immer gefährlicher, immer unglaubwürdiger und korrupter wird.

Ihren Anfang nahmen Deep Fakes aber ganz profan in der Pornografie.

Wie alles im Internet. Vor zweieinhalb Jahren hat ein anonymer Nutzer unter dem Namen «Deep Fake» – aus «Deep Learning» und «Fake» – gefälschte Pornovideos gebastelt und sie im Netz veröffentlicht, ohne jegliches Vorwissen. Er hat einfach ein maschinelles Lernsystem genommen, denn viele sind aus der KI-Spitzenforschung frei im Internet verfügbar, und es mit Daten trainiert, in diesem Fall mit Fotos und Videos des Gesichts der Schauspielerin Scarlett Johansson, und das Bild dann in einen Pornofilm eingebaut. Das war noch ein rudimentärer Deep Fake, Face Swapping genannt. Aber wie ihre Augen leuchteten, das war «wow!» – und ging deutlich über Photoshoppen hinaus.

Dann stellte der Nutzer eine Anleitung für gefälschte Pornos ins Netz.

Ja, seither gibt es ein Fake-Porno-Ökosystem im Netz. Mit Google findet man leicht solche Fake-Porno-Websites mit Prominenten, allerdings fast nur von Frauen. Deep-Fake-Porno ist sicher ein geschlechtsspezifisches Phänomen. Aber auch ganz normale Frauen und Mädchen sind im Visier. Es gab 2018 eine App, die genau das machte, zudem gibt es Leute im Netz, die auf Auftrag für wenige Franken Porn Fakes fertigen.

Sind Deep Fakes also ein Frauenproblem?

Nein, jeder kann in Zukunft zur Zielscheibe werden. Neu lässt sich KI auch auf Stimmen trainieren, dafür reicht ein zehnsekündiger Clip. So kann praktisch jeder und jede jemanden irgendwo etwas sagen oder tun lassen, was er oder sie in Wirklichkeit nie gesagt oder getan hat. Das geht im Eiltempo über Porno hinaus und bedroht auch Unternehmen. Letztes Jahr hatten wir den ersten gemeldeten Fall, wo sich ein Krimineller mit KI-unterstützter Software am Telefon als CEO ausgab und einen Angestellten anwies, 250’000 Euro auf ein Konto zu überweisen. Die Infokalypse ist ein Angriff auf die bürgerlichen Freiheiten, unsere Identität kann von jedem genommen und ohne Zustimmung angeeignet werden.

Deep Fakes stellen damit auch den Begriff der Realität infrage.

In der Tat. Wenn alles ein Fake sein kann, kann man alles leugnen. Die «Lügner-Dividende», wie das heisst, wird mittelfristig denn auch das grössere Problem darstellen als Deep Fakes selbst. Schon heute lässt sich in der Politik beobachten, dass etwas Reales passiert und dann als Fake geleugnet wird. So hat eine Kandidatin der Republikaner kürzlich behauptet, das George-Floyd-Video sei gefälscht. Auch Trump ist Meister darin.

Wie sind Sie auf das infokalyptische Thema gekommen?

Durch meine politische Arbeit. Ich hatte in den letzten zehn Jahren als Beraterin festgestellt, dass das Zeitalter der Information immer mehr zum Zeitalter der Desinformation wurde. Ich sah, wie dieses neue Informationsökosystem Desinformation und Fehlinformation präsenter und wirkungsvoller machte.

Liest man Ihr Buch, liegt die Wurzel dieser Lügen-Ökonomie in Russland. Sind das nicht Klischees?

Die ersten grossen Ereignisse, an denen ich gearbeitet habe, waren die russische Invasion in der Ukraine und die Annexion der Krim. Ich versuche im Buch zu zeigen, wie der russische Staat es schafft, aus der Veränderung des Informationssystems Kapital zu schlagen. Ich glaube, dass Russland unser gesamtes Informationsökosystem geprägt hat, die Art und Weise, wie die Sowjets Information und Desinformation als Werkzeug benutzten, damit man so viele Informationen hat, dass man nicht weiss, was wahr ist. Die Russen sind darin die Besten. Aber China oder der Iran ziehen nach.

Hat Donald Trump wegen Russland die Wahlen gewonnen?

Es gibt viele Gründe, warum Trump an die Macht gekommen ist. Aber zu behaupten, dass Russland sich nicht in das politische Leben und die öffentliche Debatte einmischte, indem es soziale Medien nutzte, ist einfach falsch. Sie haben es getan, und sie tun es auch jetzt wieder.

Womit ist 2020 zu rechnen?

Das wird sich wie 2016 erst nach der Wahl ergeben. Was wir wissen, ist, dass ähnliche Operationen im Gang sind. Einige Netzwerke wurden bereits entdeckt und gestoppt. Eines, Peacedata, zielte auf politisch links eingestellte Facebook-Nutzer. Dafür wurden freiberufliche Journalisten aus den USA benutzt, denen nicht bewusst war, dass sie für die Russen arbeiteten, wie eben bekannt wurde. Aber es werden mehr sein, denn es ist so einfach, Informationsplattformen zu infiltrieren.

Wie können wir gegen die Infokalypse ankommen?

In einem ersten Schritt müssen wir verstehen, wie Fake Porn mit russischer Desinformation zusammenhängt und diese mit Whatsapp-Gruppen in Indien. Deshalb habe ich dieses Buch geschrieben. Dann erst kann man nach Lösungen suchen: Zum einen gibt es Software, die Fälschungen aufspüren soll oder Inhalte als authentisch kennzeichnen kann. Aber bei Deep Fakes handelt es sich nicht um ein technisches Problem, im Kern ist es ein menschliches.

Sind wir auch als Gesellschaft gefordert?

Genau. Wir müssen die Infokalypse mit all unseren Ressourcen angehen. Man kann dies nicht einfach an die sozialen Medienplattformen oder an die Regierung delegieren. Gesellschaft, Technik und Politik müssen an einem Strick ziehen. Das ist schwer zu bewerkstelligen, aber machbar, wie das Beispiel Estlands zeigt. Das Land war phänomenal erfolgreich bei der Bekämpfung der russischen Desinformation, weil es dies als eine gesellschaftsweite Übung verstanden hat.

Ihr Zukunftsbild ist düster.

Nichtsdestotrotz bin ich eine absolute Optimistin. Wir leben – das kann ich sagen, da ich in Nepal aufgewachsen bin – in der besten aller Gesellschaften. Deshalb fühle ich mich auch verpflichtet, die neuen Herausforderungen anzugehen. Ich denke, die Infokalypse ist – wie der Klimawandel – eine davon. Aber ich bin zuversichtlich, dass wir es schaffen können.

25 Kommentare
    Franz Büchel

    Das Karussell der Lügen, der Scheinrealitäten und manipulativen Strategien ist mit Deepfake um ein erschreckendes Element erweitert: wenn wir echte Videos von Politikern und gefakte nicht mehr unterscheiden können, kann man den Politikern z.B. einen beliebigen Text unterschieben. Die Konfusion und Manipulierbarkeit der Betrachter ist dann optimal gross. Davon profitieren Mächtige, Strippenzieher, Akteure mit undurchsichtigen Interessen, sicher aber nicht die Demokratie oder die Gesellschaft.