Videos manipulieren ist einfach wie noch nie

Filmaufnahmen fälschen ist heute auch für Laien möglich. Die technologischen Möglichkeiten werfen Fragen auf.

hero image
Christian Zellweger@@chzellweger

Taucht ein unliebsames Video auf, wird es von den Betroffenen öfters als «manipuliert» oder «gefälscht» bezeichnet. Für Aufregung sorgte etwa Hans-Georg Massen, ehemaliger Präsident des deutschen Verfassungsschutzes, nach den ausländerfeindliche Protesten 2018 in Chemnitz. Ohne weitere Hinweise zweifelte er die Echtheit eines Videos an, welches zeigt, wie Rechtsradikale eine Gruppe von Ausländern über eine Strasse jagen.

Später musste Massen die Vermutung relativieren. Nicht so weit ging der bernische Sicherheitsdirektor Philippe Müller in seiner Stellungnahme zum von der Reitschule veröffentlichten Video von vergangenem Samstag. Wegen der Schnitte und des fehlenden Tons bezeichnete Müller das Video aber als «manipulativ».

Das umstrittene Video von einem Polizeieinsatz bei der Berner Reitschule.

Hat ein Forensiker Zeit, entdeckt er Fälschungen

«Was auf dem Video zu sehen ist, war in der Realität sicher weniger dramatisch», so die Einschätzung der Tamedia-Videoredaktion. Das Video sei mit einem starken Zoom gefilmt worden. Das hat den Effekt, dass Distanzen in der Tiefe stark verkürzt erscheinen, so auch die Abstände zwischen Personen und Polizeiauto. Zudem sei in der Wiederholung der entscheidenden Szene das Video wohl verlangsamt worden. Der Bildausschnitt sei aber zu klein, als dass man wirklich beurteilen könne, was geschehen sei – hinzu kämen die Schnitte. «Es gibt schlicht zu wenig Kontext für eine seriöse Beurteilung der Lage.» Als im eigentlichen Sinne manipuliert schätzen die Spezialisten das Video nicht ein.

Aber: Was wäre denn überhaupt möglich? Lionel Bloch von der Zürcher Firma Forentec analysiert und sichert digitale Daten im Auftrag seiner Kunden, damit die Daten auch als Beweismittel vor Gericht verwendbar sind. In dieser Analyse sind auch Fälschungen ein Thema. Bilder oder Videos zu manipulieren, sei so einfach wie noch nie, sagt Bloch. Auch Laien mit lediglich Grundkenntnissen könnten heute Personen oder Objekte in Videos einfügen oder löschen, ohne dass die Manipulation offensichtlich sei.

Eine Fälschung lasse sich aufdecken, indem man Videos Bild für Bild anschaue und etwa den «Fingerabdruck» der Kameralinse – erkennbar am Muster kleinster Kratzer – analysiere, so Bloch. Profis oder auch staatliche Akteure mit mehr Wissen, Zeit und Geld würden Videos mit verschiedenen Programmen bearbeiten, sodass eine Manipulation häufig nicht mehr einfach nachzuweisen sei. Dennoch sagt Bloch: «Hat ein Forensiker genügend Zeit, wird er früher oder später praktisch jede Manipulation erkennen.»

Erst am Anfang stehen die «Deep Fakes», also Videomanipulationen mithilfe künstlicher Intelligenz. Prominentes Beispiel dieser Technologie ist ein einminütiges Video des ehemaligen US-Präsidenten Barack Obama, in dem er vor ebendiesen Deep Fakes warnt. Gesprochen hat Obama diese Worte jedoch nie, es war die Mimik eines Schauspielers, die Obama auf das Gesicht montiert wurde, auch Obamas Stimme wurde künstlich nachmodelliert. Dennoch wirkt die Warnung Obamas täuschend echt.

Das ist nicht Obama, der hier spricht: Es handelt sich um eine Fälschung.

Kampf der künstlichen Intelligenz

Auf das Erkennen solcher Fälschungen hat sich Dirk Labudde, Professor an der Fachhochschule Mittweida in der Nähe der ostdeutschen Stadt Leipizig, mit seinem Team spezialisiert. Noch könne man diese Fakes anhand einiger Punkte erkennen: Gesichter etwa, die flackerten oder die nicht auf den Körper passten. Verdächtige Muster im Blinzeln oder undeutliche Mundinnenräume seien ebenfalls Merkmale von Deep Fakes, sagt Labudde. So gefälschte Videos seien zurzeit auch noch meist relativ kurz.

Doch die Technik entwickle sich weiter. Damit stellten sich rechtlich bisher ungeklärte Fragen. In Deutschland und teilweise auch in der Schweiz werden etwa aus Autos gefilmte Aufnahmen, sogenannte Dashcam-Videos, als Beweismittel zugelassen. Labuddes Institut wird jeweils hinzugezogen, um diese Videos auf Fälschungen zu prüfen. «Doch was wird sein, wenn die Manipulation eines solchen Videos gar nicht mehr bewiesen werden kann?» So könnte es einst zu einem «Kampf der künstlichen Intelligenzen» vor Gericht kommen. Es sei wie überall in der Cyber-Kriminalität: «Es bleibt ein Katz-und-Maus-Spiel zwischen Fälschern und Analytikern.»

Diese Inhalte sind für unsere Abonnenten. Sie haben noch keinen Zugang?

Erhalten Sie unlimitierten Zugriff auf alle Inhalte:

  • Exklusive Hintergrundreportagen
  • Regionale News und Berichte
  • Tolle Angebote für Kultur- und Freizeitangebote

Abonnieren Sie jetzt