Einsatz von KI im Kampf gegen Deepfakes

Deepfakes sind gefälschte Bild- oder Videoinhalte, in denen zumeist prominenten Personen verfälschte Aussagen in den Mund ...

Deepfakes sind gefälschte Bild- oder Videoinhalte, in denen zumeist prominenten Personen verfälschte Aussagen in den Mund gelegt oder Fotos manipuliert werden. Für Laien sind die geschickten Manipulationen kaum erkennbar – und damit ist die Gefahr groß, dass den Falschinformationen Glauben geschenkt wird. Das kann nicht nur Reputationen zerstören, sondern ernsthafte politische oder wirtschaftliche Krisen nach sich ziehen. Mit Künstlicher Intelligenz (KI) lässt sich jedoch etwas gegen die aktuelle Deepfake-Schwemme unternehmen.

So schnell ist man nicht mehr Herr der eigenen Worte

Wie einfach es ist, einen verblüffend authentisch wirkenden Deepfake herzustellen, beweisen verschiedene Beispiele aus jüngster Zeit: Die US-Politikerin Nancy Pelosi scheint in einem Videoausschnitt in betrunkenem Zustand eine Rede zu halten, der frühere US-Präsident Obama scheint üble Beleidigungen auf seinen Nachfolger Donald Trump auszustoßen und Facebook-Gründer Mark Zuckerberg scheint in einem Videointerview gänzlich nonchalant die Weltherrschaft anzustreben. Zum Teil sind es einfache Methoden, wie das verzögerte Abspielen tatsächlicher Sprache, die den verfälschenden Effekt hervorrufen. Zum Teil werden Inhalte gezielt verändert, indem mittels moderner Technologien der Videobearbeitung von Dritten eingesprochene Worte den Prominenten in den Mund gelegt und deren Lippenbewegungen und Mimik entsprechend angepasst werden.

Probleme, die aus Deepfakes entstehen können

Theoretisch ist es beispielsweise möglich, mittels gefälschter, aber täuschend echt wirkender Videos einen Staatsführer einen Krieg ausrufen oder einen Wirtschaftsführer eine Gewinnwarnung aussprechen zu lassen. Die vollkommen realen Konsequenzen können verheerend sein: Vom Ausbruch gewaltsamer Konflikte bis hin zu Abstürzen an den Börsen. Und solch ein Schaden bleibt oftmals auch dann bestehen, wenn der Deepfake entlarvt wurde. Das Problem: Deepfakes bauen meist auf schockierende Effekte auf. Und News solcher Art verbreiten sich besonders schnell und effektiv – einfach, weil das Verbreiten aufsehenerregender Nachrichten in der menschlichen Natur liegt. Diese Nachrichten durch Richtigstellungen wieder „einzufangen“ ist oft schwierig bis unmöglich.

Künstliche Intelligenz als Automatismus gegen Deepfakes

Es gilt deshalb, präventiv tätig zu werden, damit Deepfakes gar nicht erst in Umlauf gelangen. Experten, unter anderem das US-Verteidigungsministerium, setzen dabei auf die Entwicklung und das gezielte Training Künstlicher Intelligenz. Die lernfähigen Automatismen können schon heute besser als jeder menschliche Betrachter Manipulationen in Bild und Ton entlarven. Sie überprüfen dazu das Material, also beispielsweise ein Video, auf kleinste Veränderungen in Bildpunkten und Abweichungen in Wärmemustern, Mimik und Lippenbewegung sowie Tonfrequenzen. Voraussetzung für das erfolgreiche automatische Entlarven von Deepfakes ist allerdings ein professionelles Training der KI. Denn die auf KI basierenden Analyseprogramme müssen anhand von hunderttausenden Beispielen zunächst erlernen, woran sie besagte Abweichungen überhaupt erkennen können. Langfristig wären auf dieser Basis Gütesiegel denkbar, mit denen dem Betrachter die Sicherheit gegeben wird, ein echtes Video ohne erkennbare Manipulationen zu sehen.

Der Kampf gegen Videofälschungen hat gerade erst begonnen

Die Analyseverfahren zum Entlarven von Deepfakes werden immer leistungsfähiger und genauer. Gleichzeitig verfeinern auch die Hersteller der gefälschten Inhalte ihre Methoden. Es herrscht deshalb in Sachen Videomanipulation in gewisser Weise ein KI-Wettrüsten, das noch lange nicht entschieden ist.

Bildcredits: unsplash

Archiv