WIE KÖNNEN WIR DEN MIT DEEPFAKES VERBUNDENEN HERAUSFORDERUNGEN BEGEGNEN?

Diese positiven Beispiele sollen selbstverständlich nicht die potenziellen Gefahren, die von Deepfakes ausgehen, kleinreden. Diese Gefahren sind unbestritten und sie erfordern entschiedene Gegenmaßnahmen – darüber besteht weitgehend Einigkeit. Weniger Einigkeit besteht darüber, wie genau diese Gegenmaßnahmen auszusehen haben. Es stellt sich zudem die Frage, wie das Recht des Einzelnen auf freie Meinungsäußerung garantiert werden kann, ohne dass gleichzeitig das Bedürfnis der Gesellschaft nach einem zuverlässigen Informationssystem untergraben wird.

Technische Lösungen zur Identifikation und Bekämpfung von Deepfakes

Eine Möglichkeit, gegen die Fälschungen vorzugehen, besteht darin, Technologien zu entwickeln, die Fälschungen von realen Inhalten unterscheiden können. Zu diesem Zweck werden Algorithmen verwendet, die jenen ähneln, die zur Erzeugung von Täuschungen entwickelt wurden. Mit GLTR, einem auf dem bereits erwähnten GPT-2 basierenden Modell, untersuchten Forscher des MIT-IBM Watson AI Lab und der HarvardNLP, ob dieselbe Technologie, die eigenständig erfundene Artikel schreibt, auch dafür genutzt werden kann, durch KI generierte Passagen zu erkennen. Gibt man in die Testanwendung eine Textpassage ein, hebt sie die Wörter in Grün, Gelb, Rot oder Violett hervor, um die abnehmende Vorhersagbarkeit anzuzeigen. Je höher der Anteil an Wörtern mit geringer Vorhersagbarkeit, also an rot- und violettmarkierten Sätzen, desto größer ist die Wahrscheinlichkeit, dass es sich bei der Passage um den Text eines menschlichen Autors oder einer menschlichen Autorin handelt; je vorhersagbarer die Wörter (und „grüner“ die Passagen), desto wahrscheinlicher ist es wiederum, dass es sich um einen Textgenerator handelt. Ähnliche Verfahren können angewendet werden, um manipulierte Videos zu enttarnen. Im Jahr 2018 stellten Forscher fest, dass die Gesichter in Deepfake-Videos nicht blinzeln. Dies lag daran, dass statische Bilder zur Generierung der Aufnahmen genutzt wurden und diese meist Menschen mit offenen Augen zeigten. Doch der Nutzen dieser Erkenntnis hatte keine lange Dauer. Sobald diese Information publik wurde, tauchten die ersten Videos mit blinzelnden Augen auf. Ähnlich wird es sich in Zukunft mit anderen Entdeckungsmechanismen verhalten. Das gleiche Katz-und-Maus-Spiel wird im Bereich der Cybersecurity mittlerweile seit Jahrzehnten gespielt – der Fortschritt kommt immer beiden Seiten zugute.

image

Diese Tatsache ist freilich kein Grund, Anstrengungen zur Deepfake-Identifizierung ruhen zu lassen. Im September 2019 kündigte Facebook – in Zusammenarbeit mit der PAI-Initiative13), Microsoft und mehreren Universitäten – eine mit 10 Millionen US-Dollar dotierte „Deepfake Detection Challenge“ 14) an.

Facebook hat auch die Erstellung eines Datensatzes mit Bildern und Videos von zu diesem Zweck engagierten Schauspielern in Auftrag gegeben, um eine ausreichende Datengrundlage für die Challenge zu schaffen. Wenige Wochen später veröffentlichte auch Google einen Datensatz von 3.000 manipulierten Videos mit dem gleichen Ziel. Auch die beim Pentagon angesiedelte US-amerikanische Forschungsförderungsagentur DARPA arbeitet bereits seit 2016 innerhalb des MediFor-Programms (kurz für Media Forensics) daran, manipulierte Inhalte zu erkennen, und hat dafür innerhalb von zwei Jahren 68 Millionen US-Dollar investiert.15) Ob und an welchen technischen Lösungen zur Bekämpfung von Deepfakes in Deutschland und Europa gearbeitet wird, ist wenig bekannt. Meist handelt es sich hierbei um einzelne Unternehmen, wie das bereits erwähnte Deeptrace, und um Forschungsprojekte wie Face2Face 16) von Matthias Nießner, Professor an der TU München. Laut Antwort der Bundesregierung auf eine Kleine Anfrage der FDP-Fraktion beschäftigen sich insbesondere das „Nationale Forschungszentrum für angewandte Cybersicherheit“ CRISP/ATHE-NE, aber auch die TU München oder das Fraunhofer-Institut mit diesem Thema. Zudem haben der deutsche Auslandssender Deutsche Welle (DW), das Fraunhofer-Institut für Digitale Medientechnologie (IDMT) und das Athens Technology Center (ATC) das gemeinsame Forschungsprojekt „Digger“ gestartet. Ziel des Projekts ist es, die webbasierte Verifikationsplattform „Truly Media“ von DW und ATC u. a. um die Audioforensik-Technologien des Fraunhofer IDMT zu erweitern und Journalisten auf diese Weise zu helfen.17) Hieraus lassen sich aber weder eine konkrete Strategie noch eine Investitionsabsicht der Bundesregierung ableiten.

Eine Möglichkeit, gegen die Fälschungen vorzugehen, besteht darin, Technologien zu entwickeln, die Fälschungen von realen Inhalten unterscheiden können. Zu diesem Zweck werden Algorithmen verwendet, die jenen ähneln, die zur Erzeugung von Täuschungen entwickelt wurden. Mit GLTR, einem auf dem bereits erwähnten GPT-2 basierenden Modell, untersuchten Forscher des MIT-IBM Watson AI Lab und der HarvardNLP, ob dieselbe Technologie, die eigenständig erfundene Artikel schreibt, auch dafür genutzt werden kann, durch KI generierte Passagen zu erkennen. Gibt man in die Testanwendung eine Textpassage ein, hebt sie die Wörter in Grün, Gelb, Rot oder Violett hervor, um die abnehmende Vorhersagbarkeit anzuzeigen. Je höher der Anteil an Wörtern mit geringer Vorhersagbarkeit, also an rot- und violettmarkierten Sätzen, desto größer ist die Wahrscheinlichkeit, dass es sich bei der Passage um den Text eines menschlichen Autors oder einer menschlichen Autorin handelt; je vorhersagbarer die Wörter (und „grüner“ die Passagen), desto wahrscheinlicher ist es wiederum, dass es sich um einen Textgenerator handelt.

Ähnliche Verfahren können angewendet werden, um manipulierte Videos zu enttarnen. Im Jahr 2018 stellten Forscher fest, dass die Gesichter in Deepfake-Videos nicht blinzeln. Dies lag daran, dass statische Bilder zur Generierung der Aufnahmen genutzt wurden und diese meist Menschen mit offenen Augen zeigten. Doch der Nutzen dieser Erkenntnis hatte keine lange Dauer. Sobald diese Information publik wurde, tauchten die ersten Videos mit blinzelnden Augen auf. Ähnlich wird es sich in Zukunft mit anderen Entdeckungsmechanismen verhalten. Das gleiche Katz-und-Maus-Spiel wird im Bereich der Cybersecurity mittlerweile seit Jahrzehnten gespielt – der Fortschritt kommt immer beiden Seiten zugute. Diese Tatsache ist freilich kein Grund, Anstrengungen zur Deepfake-Identifizierung ruhen zu lassen. Im September 2019 kündigte Facebook – in Zusammenarbeit mit der PAI-Initiative13), Microsoft und mehreren Universitäten – eine mit 10 Millionen US-Dollar dotierte „Deepfake Detection Challenge“ 14) an. Facebook hat auch die Erstellung eines Datensatzes mit Bildern und Videos von zu diesem Zweck engagierten Schauspielern in Auftrag gegeben, um eine ausreichende Datengrundlage für die Challenge zu schaffen. Wenige Wochen später veröffentlichte auch Google einen Datensatz von 3.000 manipulierten Videos mit dem gleichen Ziel.

Auch die beim Pentagon angesiedelte US-amerikanische Forschungsförderungsagentur DARPA arbeitet bereits seit 2016 innerhalb des MediFor-Programms (kurz für Media Forensics) daran, manipulierte Inhalte zu erkennen, und hat dafür innerhalb von zwei Jahren 68 Millionen US-Dollar investiert.15) Ob und an welchen technischen Lösungen zur Bekämpfung von Deepfakes in Deutschland und Europa gearbeitet wird, ist wenig bekannt. Meist handelt es sich hierbei um einzelne Unternehmen, wie das bereits erwähnte Deeptrace, und um Forschungsprojekte wie Face2Face16) von Matthias Nießner, Professor an der TU München. Laut Antwort der Bundesregierung auf eine Kleine Anfrage der FDP-Fraktion beschäftigen sich insbesondere das „Nationale Forschungszentrum für angewandte Cybersicherheit“ CRISP/ATHE-NE, aber auch die TU München oder das Fraunhofer-Institut mit diesem Thema. Zudem haben der deutsche Auslandssender Deutsche Welle (DW), das Fraunhofer-Institut für Digitale Medientechnologie (IDMT) und das Athens Technology Center (ATC) das gemeinsame Forschungsprojekt „Digger“ gestartet. Ziel des Projekts ist es, die webbasierte Verifikationsplattform „Truly Media“ von DW und ATC u. a. um die Audioforensik-Technologien des Fraunhofer IDMT zu erweitern und Journalisten auf diese Weise zu helfen.17) Hieraus lassen sich aber weder eine konkrete Strategie noch eine Investitionsabsicht der Bundesregierung ableiten. Zudem haben der deutsche Auslandssender Deutsche Welle (DW), das Fraunhofer-Institut für Digitale Medientechnologie (IDMT) und das Athens Technology Center (ATC) das gemeinsame Forschungsprojekt „Digger“ gestartet. Ziel des Projekts ist es, die webbasierte Verifikationsplattform „Truly Media“ von DW und ATC unter anderem um die Audioforensik-Technologien des Fraunhofer IDMT zu erweitern und Journalisten auf diese Weise zu helfen.17) Hieraus lassen sich aber weder eine konkrete Strategie noch eine Investitionsabsicht der Bundesregierung ableiten.

Selbstregulierungsversuche der Social-Media-Plattformen

Während die Big-Tech-Unternehmen mit Daten und finanziellen Mitteln zu einer technologischen Lösung für die Problematik beitragen wollen, werden mehr und mehr Stimmen laut, die auch weitergehende Schritte von Facebook und Co. fordern, gerade da ihre Plattformen zur Verbreitung von Desinformation beitragen. Vor diesem Hintergrund haben sich Twitter und Facebook Ende 2019 bzw. Anfang 2020 zu ihren Plänen für den Umgang mit Deepfakes geäußert. Twitter bat im November 2019 seine Nutzerinnen und Nutzer um Feedback zu einem „Regelvorschlag für synthetische und manipulierte Medien“. Anfang Februar 2020 wurden die entsprechenden Regeln angekündigt:

Jedes Foto, Audio oder Video, das „erheblich verändert oder gefälscht“ wurde, um Menschen irrezuführen, wird dann entfernt, wenn Twitter der Ansicht ist, dass es ernsthaften Schaden anrichten kann – zum Beispiel indem es die physische Sicherheit von Menschen gefährdet oder „weitverbreitete Bürgerunruhen“ verursacht. Sollte dies nicht der Fall sein, können die Tweets dennoch als manipulierte Medien gekennzeichnet, Warnungen beim Versuch, die Inhalte zu teilen, ausgesprochen und die Inhalte in den Feeds der Nutzerinnen und Nutzer depriorisiert werden. Die Änderungen sind am 5. März 2020 in Kraft getreten.18)

„Ob und an welchen technischen Lösungen zur Bekämpfung von Deepfakes in Deutschland und Europa gearbeitet wird, ist wenig bekannt.“

Facebook geht einen Schritt weiter. Am 6. Januar 2020 hat Monika Bickert, Facebooks Vice President Global Policy Management, in einem Blogbeitrag angekündigt, dass künftig Deepfakes, die bestimmten Kriterien entsprechen, von der Plattform gelöscht werden sollen.19) Gelöscht werden sollen demnach Inhalte, die mithilfe von KI auf eine Weise bearbeitet oder synthetisiert wurden, die sie für eine Durchschnittsperson authentisch erscheinen lassen würden. Von dieser Richtlinie sollen allerdings Inhalte ausgenommen werden, bei denen es sich um Satire handelt, was einen signifikanten Interpretationsspielraum offenlässt.

Interessanterweise gilt diese Richtlinie nicht für Cheap Fakes, sondern explizit nur für die KI-generierten Inhalte. Dementsprechend ist das bereits erwähnte gefälschte Video von Nancy Pelosi weiterhin auf Facebook verfügbar. 20)

Facebook räumte zwar ein, dass seine Faktenprüfer das Video als falsch eingestuft haben, lehnte es aber ab, es zu löschen, da das Unternehmen „keine Richtlinie habe, die vorschreibt, dass die Informationen, die auf Facebook gepostet werden, wahr sein müssen“ 21).

Dieser Ansatz entspricht auch Facebooks Verständnis von freier Meinungsäußerung und geht über das Thema Deepfake noch hinaus. Im Kontext der Debatte rund um politische Werbung schrieb Rob Leathern, Direktor des Produktmanagements bei Facebook, im Januar 2020 in einem Blog-Post, dass solche Entscheidungen nicht von Privatunternehmen getroffen werden sollen, „weshalb wir für eine Regulierung plädieren, die für die gesamte Branche gelten würde. In Ermangelung einer Regulierung bleibt es Facebook und anderen Unternehmen überlassen, ihre eigene Politik zu gestalten.“

Sicherlich lässt sich darüber diskutieren, ob Facebooks Auslegung der Meinungsfreiheit unter ethischen Gesichtspunkten richtig ist. Die Aussage von Rob Leathern macht aber auf ein wichtiges Thema aufmerksam – die fehlende oder zumindest lückenhafte Regulierung.

image

Regulierungsversuche durch Gesetzgeber

In Deutschland finden auf Deepfakes „generell-abstrakte Regelungen“ Anwendung, so die Antwort der Bundesregierung auf die bereits erwähnte Kleine Anfrage der FDP-Fraktion. „Spezifische Regelungen auf Bundesebene, die ausschließlich Deep-Fake-Anwendungen erfassen oder für diese geschaffen wurden, existieren nicht. Die Bundesregierung überprüft den Rechtsrahmen auf Bundesebene fortlaufend daraufhin, ob aufgrund von technologischen oder gesellschaftlichen Herausforderungen ein Anpassungsbedarf besteht.“

Dies bedeutet, dass einige Teilaspekte der Deepfake-Problematik, zum Beispiel die Rachepornografie, vermeintlich durch existierende Gesetze implizit abgedeckt sind, jedoch ein expliziter Umgang mit manipulierten Inhalten fehlt. Dies betrifft nicht nur das spezielle Thema „Deepfakes“, sondern das gesamte Spektrum der Desinformation im digitalen Raum. Wie der Autor der Studie „Regulatorische Reaktionen auf Desinformation“ 22) der Stiftung Neue Verantwortung aufzeigt, „sind bisherige Regulierungsversuche und politische Lösungsansätze [in Deutschland und Europa] kaum geeignet, um Desinformation einzudämmen“.

DEEPFAKE-REGULIERUNGEN

Eine detaillierte Analyse des Status der Deepfake-Regulierung in den USA zeigt die Studie der Kanzlei WilmerHale „Deepfake Legislation: A Nationwide Survey“ 23). In den USA wurden explizite Deepfake-Gesetze bereits in das Strafrecht aufgenommen – zum Beispiel in Virginia, das nicht einvernehmliche Deepfake-Pornografie unter Strafe stellt, oder in Texas, wo Deepfakes, die Wählerinnen und Wähler beeinflussen sollen, unter Strafe gestellt werden. Ähnliche Gesetze wurden im September 2019 auch in Kalifornien verabschiedet.

Die wahrscheinlich weitestgehende Regulierung von Deepfakes hat Ende 2019 der chinesische Gesetzgeber vorgenommen. Die chinesischen Gesetze verlangen, dass Anbieter sowie Nutzer von Audioinformationsdiensten und online Videonachrichten alle Inhalte, die mithilfe neuer Technologien wie zum Beispiel Künstlicher Intelligenz erstellt oder verändert wurden, klar kennzeichnen. Während es durchaus überlegenswert ist, ob eine ähnliche Regulierung auch von anderen Ländern übernommen werden sollte, hinterlässt sie im Falle Chinas doch einen üblen Nachgeschmack: Die chinesische Regierung ihrerseits geht mit technologiegestützter Desinformation zum Beispiel gegen die Protestierenden in Hongkong vor, und es ist davon auszugehen, dass diese neue Regulierung als Vorwand für weitere Zensuranstrengungen genutzt werden wird.

FÖRDERUNG VON MEDIENKOMPETENZ

Sicherlich ist eine wirksame Regulierung neuer technologischer Phänomene nicht ganz einfach. Auch in der Vergangenheit hat man sich hiermit immer wieder schwergetan. Das Fahren eines Autos im England des 19. Jahrhunderts zum Beispiel erforderte nach dem Locomotive Act von 1865 eine zweite Person, die dem Fahrzeug zu Fuß vorausging und eine rote Flagge schwenkte.24) Trotzdem gibt es Maßnahmen, die die Gesetzgeber jetzt schon ergreifen können, um dem Phänomen Deepfake entgegenzuwirken. Da es sich aktuell bei 96 Prozent der Deepfakes um nicht einvernehmliche Pornografie handelt, wäre es ein guter Anfang, diese, wie in Virginia oder Kalifornien, explizit unter Strafe zu stellen. In die gleiche Richtung sollte die Regulierung bezüglich Verleumdung, Betrug und Persönlichkeitsrechten gehen. Des Weiteren sollten die Gesetzgeber klare Richtlinien für den einheitlichen Umgang der digitalen Plattformen mit Deepfakes im Speziellen und mit der Desinformation im Allgemeinen schaffen.

Diese Maßnahmen können von der Kennzeichnung über die Limitierung der Verbreitung (Ausschluss aus Empfehlungsalgorithmen) bis zur Löschung von Deepfakes reichen. Zudem sollte die Förderung von Medienkompetenz für alle Bürgerinnen und Bürger, unabhängig vom Alter, eine Priorität darstellen. Eine angemessene Aufklärung darüber, wie Deepfakes entstehen und verbreitet werden, sollte die Bürgerinnen und Bürger in die Lage versetzen, Desinformation als solche zu erkennen und sich nicht davon in die Irre führen zu lassen.

Individuelle Verantwortung: kritisches Denken und Medienkompetenz

Kritisches Denken und Medienkompetenz sind die Grundlage für den differenzierten Umgang mit Desinformation. Sicherlich ist es unmöglich und wohl auch nicht wünschenswert, von jeder einzelnen Person zu verlangen, alles Gesehene grundsätzlich infrage zu stellen.

Und doch ist man heute mehr denn je gut beraten, das im Internet Konsumierte mit Vorsicht zu genießen. Das Einfachste, was jede und jeder unternehmen kann, wenn ein Bild, ein Video oder auch ein Text seltsam zu sein scheint, ist eine Google-Recherche: Viele der gefälschten Inhalte werden auf diese Weise schnell enthüllt, die Details der Fälschung sind genauso schnell im Umlauf.

Besonders wichtig ist dieser Schritt, wenn man gerade die Absicht hat, diesen Inhalt zu teilen, als „gefällt mir“ zu markieren oder zu kommentieren. Außerdem können wir bei Videos verstärkt darauf achten, ob das Blinzeln, der Gesichtsausdruck oder die Sprache unnatürlich wirken, ob Teile des Bildes verschwommen sind oder ob Objekte fehl am Platz erscheinen, auch wenn diese Merkmale mit dem Fortschritt der Deepfake-Technologie zunehmend verschwinden werden.

Künftig ist es denkbar, dass Browser-Add-ons, ähnlich wie die Werbeblocker, entstehen, die automatisiert manipulierte Inhalte identifizieren und die Nutzerinnen und Nutzer darauf aufmerksam machen. Diese Schritte setzen aber voraus, dass uns die Möglichkeiten der Manipulation überhaupt bewusst sind.

Um dieses Bewusstsein bei seinen Bürgerinnen und Bürgern zu erreichen, setzt Finnland, das Land, das den ersten Platz in einer Studie zur Messung der Widerstandsfähigkeit 25) gegenüber Desinformation belegt, auf Bildungsangebote für die gesamte Bevölkerung – vom Kindergarten bis zum Rentenalter.