Das bedeutet aber nicht, dass Technologie nicht wertvolle Hilfe leisten kann. "Die einfachste und häufigste Art von Desinformation ist die Wiederverwendung von alten Fotos oder Videos in neuem Kontext", sagt Steinebach. Wird solches Archivmaterial seriös eingesetzt, etwa weil zu einem aktuellen Ereignis noch keine Bilder vorliegen, gibt es eine Einblendung.
Diese trägt den Hinweis "Archivmaterial" oder besteht aus dem Datum der Aufnahme samt ihrem Urheber. Fotos und Videos können aber natürlich auch unkommentiert instrumentalisiert werden, um die Wahrnehmung von Ereignissen zu verfälschen.
Umgekehrte Bildersuche nutzen
So ein irreführender oder betrügerischer Einsatz lässt sich oft durch die inverse Bildersuche von Suchmaschinen wie Google, Bing oder Yandex sichtbar machen. Letztere findet etwa tendenziell mehr Suchergebnisse von Seiten aus Osteuropa. Ist ein Bild tatsächlich schon einmal im Netz aufgetaucht, finden es Suchmaschinen mit hoher Wahrscheinlichkeit.
Allerdings klappt das nicht mit allen Arten von Fotos gleich gut. Lädt man etwa bei der Google-Bildersuche eine allgemeine Aufnahme einer Demonstration in Berlin hoch, werden als "optisch ähnliche Bilder" Demos an unterschiedlichsten Orten und zu verschiedensten Anlässen angezeigt. Doch sobald etwa Transparente auf dem Bild zu sehen sind, erhöht das die Trefferwahrscheinlichkeit wieder.
"Allerdings können schon kleine Veränderungen am Bild oder der Trick, es spiegelverkehrt zu publizieren, die inverse Bildersuche ins Leere laufen lassen", warnt Prof. Steinebach. Um Veränderungen oder Bildmontagen zu entdecken, gibt es Webtools wie Fotoforensics.com oder Forensically.
Solche Tools arbeiten basierend auf der Annahme, dass durch die verschiedenen Komprimiervorgänge, die ein Digitalfoto meist durchläuft, sich dessen Bildflächen am Ende unterscheiden - etwa in den Farbwerten oder genereller im Bildrauschen, erläutert IT-Forensiker Steinebach. Teilweise analysierten diese Tool auch Metadaten wie Aufnahmeort oder -zeitpunkt.
Aber auch hier gibt es ein Aber: "Wenn das Foto nach der Manipulation nochmals komprimiert wird, kann das frühere Manipulationen verdecken", erklärt Steinebach. Umgekehrt reagierten Flächen mit viel Textur anders als plane Flächen, was falschen Alarm auslösen könne.
Steinebach selbst habe zu Testzwecken schon einmal das Foto eines Stromzählers manipuliert und mit unterschiedlichen Tools untersucht. Ergebnis: Die völlig andere Struktur der Plomben löste Fake-Alarm aus, der veränderte Zählerstand blieb unbemerkt.
Manipulierte Videos erkennen
Auch mit Videos wird der Versuch unternommen, falsche Tatsachen vorzuspielen oder zu untermauern. Die Nutzung bereits vorhandener Aufnahmen in neuem, falschem Kontext, ist auch hier die häufigste Manipulationsform.
Die US-amerikanische Sektion von Amnesty International stellt auf einer Seite namens Citizenevidence eine Suchmaske bereit, in die Links verdächtiger Youtube-Videos kopiert werden können. Die Seite stellt dann Metadaten wie Aufnahmeort oder Zeitpunkt des Hochladens fest und extrahiert zudem einzelne Bilder, die wiederum für eine inverse Bildersuche verwendet werden können.
Bei Videos außerhalb von Youtube raten Experten dazu, genauer hinzuschauen: Sind im Bild auftauchende Schriftzüge in der Sprache des Landes verfasst, wo das Ereignis angeblich stattgefunden hat? Stimmen Jahres- und Tageszeit überein? Außerdem sei es wichtig, mindestens eine zweite Quelle für das Ereignis zu finden, betont Pina Merkert vom IT-Fachmagazin "c't".
"Wenn es keine zweite Quelle gibt oder die erste behauptet, andere Medien würden dieses Ereignis bewusst verschweigen, ist das eher ein Hinweis, dass ich gerade angelogen werde", sagt Merkert. Weniger aktuelle, aber wiederkehrende zweifelhafte Behauptungen unterzögen viele Medien einem Faktencheck und veröffentlichten die Ergebnisse online.
Mit Deepfakes rechnen
Ganz anders funktionieren sogenannte Deepfakes. Das sind Video-Fälschungen, bei denen etwa prominente Köpfe auf andere Körper gesetzt oder Menschen falsche Aussagen untergeschoben werden. "Man erkennt sie meist an typischen Fehlern wie verschwurbelten Haaren und komisch geformten Ohren", erklärt Pina Merkert.
Das liege daran, dass die dazu eingesetzte Künstliche Intelligenz (KI) zwar immer besser werde, wenn es viele verfügbare Daten gebe. Wenn also bestimmten Personen oft beim Reden gefilmt wurden, seien Lippen, Mund, Nase oder Augen leichter darzustellen. Für die oft von Haaren verdeckten Ohren oder den nur manchmal sichtbare Mund-Innenraum fehlten der KI dagegen Beispiele, um realistisch wirkende Bilder zu errechnen.
Gesprochene Sprache lässt sich etwa recht einfach mit Hilfe von Googles Sprachsynthese-Programm Wavenet nachbilden. Hierfür seien anfangs riesige Datensätze notwendig gewesen, die nur große Unternehmen bereitstellen konnten. Inzwischen sei die benötigte Datenmenge jedoch um den Faktor vier geschrumpft und Manipulationen entsprechend einfacher, weiß Merkert.
Sie rät jedem, sich im Netz einige Beispiele anzusehen, um ein Gefühl für Deepfakes zu bekommen - etwa auf den gängigen Videoportalen: "Die sind leicht zu finden, weil die Mehrzahl ja nicht in böser Absicht, sondern einfach als Gag mit Promis produziert wurde."
Tools allein reichen nicht
Einen Hinweis darauf, welche Jedermann-Mittel es in Zukunft geben wird, um das Erkennen oder die Suche nach Fake-News zu erleichtern, zeigt ein Blick zum Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Dort arbeitet man an einem Browser-Add-on namens News Verifier, das diverse, bereits vorhandene Systeme kombiniert.
Es vergleicht ähnliche Fotos und Bildausschnitte, analysiert, ob Teile hinzugefügt oder ausgeschnitten wurden, sucht mittels Gesichtserkennung nach bekannten Persönlichkeiten und filtert die wichtigsten Begriffe der Ursprungs-Webseite.
Allerdings wird die Erweiterung derzeit nur am Institut selbst zu Testzwecken verwendet. "Methodisch haben wir alles, um ein downloadbares Plug-in für alle zu entwickeln", sagt DFKI-Forschungsbereichsleiter Prof. Andreas Dengel.
Eine entsprechende Finanzierung vorausgesetzt, könne die Browser-Erweiterung binnen eines Vierteljahres für die massenhafte Nutzung fertiggestellt werden, so Dengel. Bis dahin, aber auch darüber hinaus, gilt es, sich mit vorhandenen Tools und einer großen Portion Logik und Skepsis vor Fake-Fotos und -Videos zu schützen.