07.05.2024
Können wir selbst Videos nicht mehr vertrauen?
Wie Deepfakes unsere Demokratie gefährden können
Im März 2022 kursiert kurz nach dem russischen Angriffskrieg plötzlich ein Video in den Medien. Darin zu sehen ist der ukrainische Präsident Wolodymyr Selenskyj, der seinen Truppen die Kapitulation befiehlt. Doch später stellt sich heraus: Das Gesehene ist nicht echt, das Video gefälscht. Einen solchen Befehl hat Selenskyj nie gegeben. Bei dem Video handelt es sich um ein KI-generiertes Deepfake. Eine solche Situation, in der die Realität zu eigennützigen Zwecken manipuliert wird, wirft die Frage auf, ob wir Deepfakes überhaupt noch erkennen können und, wenn nein, welche politischen Gefahren dadurch entstehen. Mit diesen Fragestellungen haben wir uns in diesem Schuljahr in unserem Projekt im Alternativen Pflichtfach “Science-Club” beschäftigt.
Was sind Deepfakes überhaupt?
Das Wort „Deepfake“ setzt sich aus den englischen Wörtern „deep learning“ und „fake“ zusammen. Der Begriff „deep learning“ steht für die Künstliche Intelligenz, die diese erstellt. Das Wort „fake“ bezieht sich darauf, dass es sich bei Deepfakes nicht um authentische Inhalte handelt. Diese Deepfakes werden durch Künstliche Intelligenz erstellt, abgeändert oder verfälscht. In manchen Fälscherprogrammen können nicht nur Videos, Fotos und Audios, sondern auch Gesichter sowie Stimmen verändert werden.
Kann man Deepfakes erkennen?
In weiterer Folge haben wir uns die Frage gestellt, ob man Deepfakes von realen Inhalten unterscheiden kann. Wir haben daher eine Online-Umfrage erstellt, und Schülerinnen und Schüler der Oberstufe unserer Schule mehrere Videos als “Deepfake” oder “Echtes Video” einstufen lassen.
Die Ergebnisse sind spannend und in gewisser Weise auch besorgniserregend – vor allem auf den zweiten Blick. So haben lediglich jeweils rund 70 % der Befragten die Deepfakes als solche erkannt. Zudem haben auch etwa 60 % der Teilnehmerinnen und Teilnehmer einem echten Video die KI-Generierung unterstellt. Außerdem müssen Faktoren, wie die besonders hohe Aufmerksamkeit der Teilnehmenden im Versuchskontext, und die Tatsache, dass viele Teilnehmerinnen und Teilnehmer bei der Einschätzung lediglich geraten haben, berücksichtigt werden. Es zeigt sich also, dass Deepfakes nicht verlässlich von realen Videos unterschieden werden können. Dadurch kommt die Frage auf, welche politischen Gefahren der Umstand mit sich bringt, dass Deepfakes wie echte Videos wirken.
Welche politischen Gefahren entstehen durch Deepfakes?
Die politischen Gefahren, die Deepfakes mit sich bringen, sind vielfältig und reichen von politischer Desinformation bis zur Manipulation im Wahlkampf und dem Vertrauensverlust in echte Inhalte.
Politische Desinformation
Eines der bekanntesten Probleme, das sich durch den Einsatz immer besser werdender Deepfakes ergibt, ist die Verbreitung von politischer Desinformation. Das bereits angeführte Exempel vom Deepfake des ukrainischen Präsidenten Wolodymyr Selenskyj ist dafür das ideale Beispiel, denn das manipulierte Video hat sich schnell im Internet verbreitet. In diesem fordert der Präsident die Soldaten auf, die Waffen niederzulegen. Das Video ist schnell enttarnt und auf jeglichen Plattformen entfernt worden.
Das Beispiel zeigt, dass KI-generierte Videos verwendet werden können, um Desinformation zu verbreiten, welche ernstzunehmende Konsequenzen mit sich bringt. In Zukunft können solche Fälle öfters auftreten, vor allem durch die Verbesserung der Qualität der Deepfakes. Die politischen Komplikationen, die dadurch entstehen könnten, sind verheerend.
Manipulation durch Deepfakes im Wahlkampf
Doch auch im Wahlkampf können Deepfakes zum Einsatz kommen, vor allem zur Diskreditierung politischer Gegner, wie etwa im US-Wahlkampf 2024. Ein weiteres, durchaus aktuelles Beispiel ist ein Audio-Deepfake in Form eines Telefonanrufs. Darin werden US-Bürger von einem Audio-Deepfake der Stimme des US-Präsidenten Biden dazu aufgefordert, nicht wählen zu gehen. Auch Dr. Jutta Jahnel vom Karlsruher Institut für Technikfolgenabschätzung und Risikoanalyse, die die EU in Deepfake-Belangen berät, hat uns in einem Interview bestätigt, dass im kommenden EU- und US-Wahlkampf Potenzial für den Einsatz von Deepfake besteht.
Vertrauensverlust in authentische Inhalte
Ein weiteres Problem, das sich aktuell noch unter dem Radar der Bevölkerung befindet, ist, laut Jahnel, der Vertrauensverlust in echte Inhalte. So hat beispielsweise ein Video des Präsidenten in Gabun beinahe einen Militärputsch ausgelöst, da die Bevölkerung dessen Glaubwürdigkeit angezweifelt hat. Auch das Phänomen der “Lügnerdividende” entsteht dadurch. Man stelle sich vor, eine Politikerin oder ein Politiker ist in einen Skandal im Zusammenhang mit einem belastenden Video verwickelt. In Zukunft könnte es viel einfacher werden, zu behaupten es handle sich dabei um ein gefälschtes Deepfake. Das Original wird als Deepfake ausgegeben.
Und wie kann man das Problem lösen?
Lösungsansätze der Deepfakeproblematik werden sowohl von Experteninnen und Experten als auch von der EU gesucht. Ein möglicher Ansatz ist das Verbot der Erstellung von Deepfakes durchzusetzen. Doch diese Umsetzung erweist sich als äußerst schwierig, da in unserer Demokratie Meinungs- und Kunstfreiheit herrschen. Aufgrund dessen werden andere Lösungsansätze, wie beispielsweise die Kennzeichnungspflicht diskutiert. Diese ist auch im “AI-Act” der EU, welcher im März 2024 beschlossen worden ist, vorgesehen. Zudem muss auch auf eine verstärkte Medienkompetenz der Bevölkerung in diesem Zusammenhang gesetzt werden. Es wäre von elementarer Bedeutung die Deepfakeproblematik im Schulunterricht intensiver zu behandeln. Jahnel zeigt diesbezüglich allerdings auf, dass die Politik die Verantwortung nicht zur Gänze auf die Medienkompetenz der Bevölkerung schieben darf und auch selbst tätig werden soll.
Schlussendlich wird es wohl eine Kombination dieser Lösungsansätze brauchen, um politische Desinformation, die von Deepfakes ausgeht, effektiv zu bekämpfen. Nur so ist es möglich, den politischen Diskurs vor einer Überflutung von Falschinformation zu bewahren und, letztendlich, auch unsere Demokratie zu schützen.
Bernhard Öhlböck, 6A
Katharina Rasner, 6A
Stefan Lauer, 6C