Der Einsatz Künstlicher Intelligenz (KI) spielt eine immer größere Rolle in unserer Gesellschaft – mit den neuen Möglichkeiten dieser Technologie gehen aber auch neue Risiken einher. Eines dieser Risiken ist der Missbrauch der Technologie für die bewusste Verbreitung von falschen Informationen.

Politisch motivierte Desinformation ist gewiss kein neues Phänomen, doch der technologische Fortschritt macht die Erzeugung und Verbreitung manipulierter Inhalte deutlich einfacher und effizienter als früher. Mithilfe von KI-Algorithmen lassen sich heutzutage Videos schnell und relativ günstig fälschen (Deepfakes), ohne dass hierfür noch Spezialkenntnisse erforderlich wären.

Wenn auch in erster Linie über den möglichen Einsatz von Deepfakes in Wahlkampagnen diskutiert wird, so macht diese Art von Videos doch nur einen Bruchteil aller Manipulationen aus: In 96 Prozent der Fälle werden Deepfakes dazu genutzt, pornografische Filme mit prominenten Frauen zu erzeugen.

Auch Frauen, die nicht in der Öffentlichkeit stehen, finden sich als unfreiwillige Hauptdarstellerinnen in manipulierten Videos wieder (Deepfake-Rachepornografie). Zudem können statische Bilder mit Anwendungen wie DeepNude in täuschend echte Nacktbilder umgewandelt werden. Wenig überraschend funktionieren diese Anwendungen nur mit Bildern von Frauenkörpern.

Aber nicht nur visuelle Inhalte können manipuliert oder algorithmisch produziert werden. KI-generierte Stimmen wurden bereits erfolgreich für Betrug mit hohen finanziellen Schäden angewendet, und mit GPT-2 können Texte erzeugt werden, die Fakten und Zitate beliebig erfinden.

Wie sollten wir mit

dieser Herausforderung

am besten umgehen?

Unternehmen und Forschungsinstitute investieren bereits hohe Summen in technologische Lösungen, um KI-generierte Videos zu identifizieren. Der Nutzen dieser Investitionen ist meist nicht von Dauer: Sobald die Ergebnisse publik werden, können sich die Entwickler von Deepfakes darauf einstellen – der Fortschritt kommt also immer beiden Seiten zugute. Aus diesem Grund müssen jene Plattformen stärker in die Pflicht genommen werden, über die die manipulierten Inhalte verbreitet werden. Zwar haben sich Facebook und Twitter mittlerweile selbst Regeln zum Umgang mit manipulierten Inhalten auferlegt, diese sind aber einerseits nicht einheitlich, anderseits ist es nicht wünschenswert, die Definition der Meinungsfreiheit privaten Unternehmen zu überlassen. Die Bundesregierung ist auf das Thema „Einsatz KI-manipulierter Inhalte zur Desinformation“ nicht vorbereitet, wie eine Kleine Anfrage der FDP-Bundestagsfraktion vom Dezember 2019 deutlich gezeigt hat: Es gibt keine klare Zuständigkeit für das Thema und auch keine spezifische Gesetzgebung; bislang finden lediglich „generell-abstrakte Regelungen“ Anwendung. Aus den Antworten der Bundesregierung lassen sich weder eine konkrete Strategie noch eine Investitionsabsicht ableiten. Insgesamt scheinen die bisherigen Regulierungsversuche auf deutscher und europäischer Ebene kaum geeignet, KI-basierte Desinformation einzudämmen. Dabei ginge es auch anders. In einigen US-Bundesstaaten gibt es bereits Gesetze sowohl gegen nicht einvernehmliche Deepfake-Pornografie als auch gegen den Einsatz dieser Technologie zur Beeinflussung von Wählern. Vor diesem Hintergrund sollte der Gesetzgeber klare Richtlinien für den einheitlichen Umgang der digitalen Plattformen mit Deepfakes im Speziellen und mit Desinformation im Allgemeinen schaffen. Die Maßnahmen können von der Kennzeichnung manipulierter Inhalte über die Limitierung ihrer Verbreitung (Ausschluss aus Empfehlungsalgorithmen) bis zu ihrer Löschung reichen. Zudem sollte die Förderung von Medienkompetenz für alle Bürgerinnen und Bürger, unabhängig vom Alter, eine Priorität darstellen. Es ist wichtig, die Öffentlichkeit für die Existenz von Deepfakes zu sensibilisieren und die Kompetenz der Menschen zu fördern, audiovisuelle Inhalte zu hinterfragen – auch wenn es immer schwieriger wird, sie als Fälschungen zu erkennen. In dieser Hinsicht lohnt ein Blick auf die nordischen Länder, insbesondere auf Finnland, dessen Bevölkerung die höchste Widerstandsfähigkeit gegenüber Desinformation aufweist. Eines sollten wir allerdings nicht tun: der Versuchung nachgeben, Deepfakes grundsätzlich zu verbieten. Wie jede Technologie, so eröffnet auch diese jenseits der mit ihr verbundenen Gefahren eine Fülle von interessanten Möglichkeiten – unter anderem für Bildung, Film und Satire.

Der Einsatz Künstlicher Intelligenz (KI) spielt eine immer größere Rolle in unserer Gesellschaft – mit den neuen Möglichkeiten dieser Technologie gehen aber auch neue Risiken einher. Eines dieser Risiken ist der Missbrauch der Technologie für die bewusste Verbreitung von falschen Informationen. Politisch motivierte Desinformation ist gewiss kein neues Phänomen, doch der technologische Fortschritt macht die Erzeugung und Verbreitung manipulierter Inhalte deutlich einfacher und effizienter als früher. Mithilfe von KI-Algorithmen lassen sich heutzutage Videos schnell und relativ günstig fälschen (Deepfakes), ohne dass hierfür noch Spezialkenntnisse erforderlich wären. Wenn auch in erster Linie über den möglichen Einsatz von Deepfakes in Wahlkampagnen diskutiert wird, so macht diese Art von Videos doch nur einen Bruchteil aller Manipulationen aus: In 96 Prozent der Fälle werden Deepfakes dazu genutzt, pornografische Filme mit prominenten Frauen zu erzeugen. Auch Frauen, die nicht in der Öffentlichkeit stehen, finden sich als unfreiwillige Hauptdarstellerinnen in manipulierten Videos wieder (Deepfake-Rachepornografie). Zudem können statische Bilder mit Anwendungen wie DeepNude in täuschend echte Nacktbilder umgewandelt werden. Wenig überraschend funktionieren diese Anwendungen nur mit Bildern von Frauenkörpern. Aber nicht nur visuelle Inhalte können manipuliert oder algorithmisch produziert werden. KI-generierte Stimmen wurden bereits erfolgreich für Betrug mit hohen finanziellen Schäden angewendet, und mit GPT-2 können Texte erzeugt werden, die Fakten und Zitate beliebig erfinden. Wie sollten wir mit dieser Herausforderung am besten umgehen? Unternehmen und Forschungsinstitute investieren bereits hohe Summen in technologische Lösungen, um KI-generierte Videos zu identifizieren. Der Nutzen dieser Investitionen ist meist nicht von Dauer: Sobald die Ergebnisse publik werden, können sich die Entwickler von Deepfakes darauf einstellen – der Fortschritt kommt also immer beiden Seiten zugute. Aus diesem Grund müssen jene Plattformen stärker in die Pflicht genommen werden, über die die manipulierten Inhalte verbreitet werden. Zwar haben sich Facebook und Twitter mittlerweile selbst Regeln zum Umgang mit manipulierten Inhalten auferlegt, diese sind aber einerseits nicht einheitlich, anderseits ist es nicht wünschenswert, die Definition der Meinungsfreiheit privaten Unternehmen zu überlassen. Die Bundesregierung ist auf das Thema „Einsatz KI-manipulierter Inhalte zur Desinformation“ nicht vorbereitet, wie eine Kleine Anfrage der FDP-Bundestagsfraktion vom Dezember 2019 deutlich gezeigt hat: Es gibt keine klare Zuständigkeit für das Thema und auch keine spezifische Gesetzgebung; bislang finden lediglich „generell-abstrakte Regelungen“ Anwendung. Aus den Antworten der Bundesregierung lassen sich weder eine konkrete Strategie noch eine Investitionsabsicht ableiten. Insgesamt scheinen die bisherigen Regulierungsversuche auf deutscher und europäischer Ebene kaum geeignet, KI-basierte Desinformation einzudämmen. Dabei ginge es auch anders. In einigen US-Bundesstaaten gibt es bereits Gesetze sowohl gegen nicht einvernehmliche Deepfake-Pornografie als auch gegen den Einsatz dieser Technologie zur Beeinflussung von Wählern. Vor diesem Hintergrund sollte der Gesetzgeber klare Richtlinien für den einheitlichen Umgang der digitalen Plattformen mit Deepfakes im Speziellen und mit Desinformation im Allgemeinen schaffen. Die Maßnahmen können von der Kennzeichnung manipulierter Inhalte über die Limitierung ihrer Verbreitung (Ausschluss aus Empfehlungsalgorithmen) bis zu ihrer Löschung reichen. Zudem sollte die Förderung von Medienkompetenz für alle Bürgerinnen und Bürger, unabhängig vom Alter, eine Priorität darstellen. Es ist wichtig, die Öffentlichkeit für die Existenz von Deepfakes zu sensibilisieren und die Kompetenz der Menschen zu fördern, audiovisuelle Inhalte zu hinterfragen – auch wenn es immer schwieriger wird, sie als Fälschungen zu erkennen. In dieser Hinsicht lohnt ein Blick auf die nordischen Länder, insbesondere auf Finnland, dessen Bevölkerung die höchste Widerstandsfähigkeit gegenüber Desinformation aufweist. Eines sollten wir allerdings nicht tun: der Versuchung nachgeben, Deepfakes grundsätzlich zu verbieten. Wie jede Technologie, so eröffnet auch diese jenseits der mit ihr verbundenen Gefahren eine Fülle von interessanten Möglichkeiten – unter anderem für Bildung, Film und Satire.