Wayback-Machine eine kleine Zeitreise unternommen werden. Die Schüler*innen können hierbei die eigene Schulhomepage, Vereinswebsites oder Blogs erkunden. Im Anschluss sollte darüber diskutiert werden, welche Vor- und Nachteile solche Internetarchive mit sich bringen und was man als Nutzer*in trotzdem versuchen kann, wenn unangenehme Inhalte ins Netz gelangen.
Sollten private Inhalte wie bspw. Nacktbilder ins Internet gelangen, muss das niemand einfach so hinnehmen. Denn auch wenn eine endgültige Löschung äußerst schwierig ist, lohnt es sich trotzdem dagegen vorzugehen! Auf Social Media Plattformen können die Urheber*innen kontaktiert werden. Sollten diese die Inhalte nicht entfernen, können sie, falls sie gegen die Richtlinien verstoßen (Nacktheit, Gewalt etc.), direkt gemeldet werden. In anderen Fällen können entsprechende Moderator*innen und die Seitenbetreiber*innen kontaktiert werden. Auch bei anderen Websites und Blogs sollte man zuerst die Inhaber*innen der Seite kontaktieren und um ein Löschen der Inhalte bitten. Sollte der Aufforderung nicht nachgekommen werden, kann bei der Polizei eine Anzeige erstattet werden. Dabei kann sich unter anderem auf das "Recht am eigenen Bild" (§ 78 UrhG) oder auf "Pornografische Darstellung Minderjähriger" bei Nacktbildern von unter 18-jährigen bezogen werden. 3
Für weitere Informationen eignet sich die Website: www.ombudsstelle.at
In diesem Teil des Moduls werden aus Zeitgründen hauptsächlich Video-Deepfakes behandelt, obwohl diese nur einen kleinen Teil im Bereich der digitalen Desinformation und Fake News ausmachen. Weitere spannende, vertiefende Aspekte zum Thema Manipulation in Social Media wären zum Beispiel die Funktion von Social Media Trolls oder Social Bots.
Deepfakes sind manipulierte oder künstlich erzeugte Ton- oder Bildmedien, welche jedoch echt wirken. Sie zeigen Menschen, die scheinbar etwas sagen oder tun, was sie jedoch noch nie gesagt oder gesagt haben. Deepfakes werden mit künstlicher Intelligenz, wie beispielsweise dem maschinellen Lernen und Deep Learning erzeugt.
Durch neue technologische Entwicklungen im Bereich der Bildbearbeitung und -manipulation wirken auch Deepfakes immer authentischer. So wurden einerseits in der Computer-Vision Algorithmen entwickelt und verbessert, welche Gesichtsstrukturen automatisch erkennt und mappt (bspw. die Position von Augenbrauen und Nase), wodurch neuartige Technologien in der Gesichtserkennung entstanden. Andererseits entstehen durch den Siegeszug des Internets - und insbesondere durch Plattformen, auf denen Bilder und Videos geteilt werden - ein unfassbar großer Datenpool mit audiovisuellem Datenmaterial, der dafür verwendet werden kann.
Zwei spezifische KI-Ansätze finden sich häufig in Deepfake-Programmen: Generative Adversarial Networks (GANs) und Autoencoder. GANs sind maschinelle Lernalgorithmen, die eine Reihe von Bildern analysieren und dadurch neue Bilder mit vergleichbarer Qualität erstellen können. Autoencoder können hingegen Informationen über Gesichtsstrukturen aus Bildern extrahieren und diese Informationen verwenden, um einen neuen Gesichtsausdruck zu modellieren.
Da durch diese Techniken sowohl Mimik und Bewegungsarten einer Person realistisch nachgestellt werden können, ist es mittlerweile sehr schwierig zu erkennen, ob man einen Deepfake oder das Original vor sich hat. Jedoch kann nicht nur die Mimik eines vorhandenen Gesichts verändert werden: Gesichter können ausgetauscht komplett neu entstehen.
Dabei sind Manipulation der Medien und Bildbearbeitung keineswegs neue Phänomene. Deepfakes sind sozusagen nur eine technologische Weiterentwicklung eines viel älteren Phänomens. Durch das Aufkommen von Social-Media-Plattformen und dem regen Austausch und Teilen von Inhalten (und somit auch falschen Inhalten, bspw. Fake News) wurde die Medienlandschaft maßgeblich verändert. Zusätzlich bieten Apps wie Snapchat, Instagram und TikTok bereits niederschwellige Filter innerhalb der Anwendungen an, mit denen Gesichter verändert und Videos bearbeitet werden können.
Darüber hinaus ist der Anstieg visueller Medien, besonders Videos, als Kommunikationsmittel ebenfalls von Bedeutung. Visuelle Medien gelten als besonders effizienter Weg, um Informationen zu verbreiten. Bisher war durchaus bekannt, dass Fehlinformationen in Texten platziert werden oder Fotos manipuliert werden, Video hingegen galten für viele noch als harte Belege, welche nur schwer zu fälschen sind.
Durch Deepfakes können Falschinformationen verbreitet werden, User*innen können teilweise nicht mehr zwischen Wahrheit und Fiktion unterscheiden. Viele dieser Meldungen werden bewusst erstellt, um in irgendeiner Form Schaden anzurichten. Durch die Verbreitung von Deepfakes kommt es zu einer Unsicherheit unter Internetnutzer*innen: Was entspricht der Wahrheit und ist ein Fakt? Welchen Medien kann man in diesem Fall noch vertrauen und wer manipuliert seine Inhalte? Durch die alleinige Existenz von Deepfakes sind sich viele User*innen nicht mehr sicher, welchen Inhalten sich noch vertrauen können. 4
Deepfake-Technologien können für eine Vielzahl von Zwecken verwendet werden mit sowohl positiven als auch negativen Auswirkungen. Deepfakes können so z.B. im Bereich von audiovisuellen Medienproduktionen hilfreich sein (z.B., wenn eine Schauspieler*in ausfallen sollte), Mensch-Maschine-Interaktionen können besser ablaufen, aber auch in Bereichen wie Videokonferenzen, Satire- und Kunstprojekten oder der chirurgischen Gesichtsrekonstruktion einen Platz finden. Jedoch gibt es auch eine Vielzahl an negativen Aspekten, wie bspw. Erpressung, Diffamierung, Mobbing, Identitätsdiebstahl, Rufschädigung, Manipulation von Nachrichtenmedien, Vertrauensverlust in Wissenschaft, Wirtschaft und Politik, Manipulation von Wahlen, Schaden für internationale Beziehungen und für die nationale Sicherheit.
Das Entlarven von Deepfakes kann unter Umständen sehr langwierig sein, wodurch scheinbar kleine Videos zu großen Problemen führen können. Im Laufe der Unterrichtseinheit sollen die Schüler*innen selbstständig Beispiele finden, wem diese Technologien nützen und wem sie schaden können. Durch das Durchspielen von Beispielen kann erahnt werden, welche Ausmaße ein manipulativer Deepfake annehmen kann.
Auf Instagram und auf Twitter wurde ein scheinbar echtes Video von einem Politiker hochgeladen, wie er vor laufender Kamera gestand, Millionen von Euro hinterzogen zu haben. Mit diesem Video wird nicht nur der Ruf des Politikers geschädigt und psychologischer Schaden zugefügt. Es könnte beispielsweise der Politiker oder die Partei erpresst werden, indem mit weiteren gefälschten Geständnissen gedroht wird. Die Wähler*innen verlieren Vertrauen in die Partei und werden sie bei der nächsten Wahl nicht mehr wählen. Dieses Misstrauen kann so weit gehen, dass generell dem System nicht mehr vertraut wird.
Im Plenum kann schließlich besprochen werden, wie man gefährliche Deepfakes verhindert werden können. Mögliche Ansätze wären zum Beispiel: keine Videos der eigenen Person ins Netz stellen, Sprachnachrichten vermeiden, sich nicht ungewollte aufnehmen lassen und auf das Löschen der Fotos/Videos bestehen, strenge Gesetze bzg. Deepfakes, strengere Kontrollen (besonders auf Social Media Plattformen), um die Verbreitung einzudämmen.
Aus gesetzlicher Perspektive gibt es bisher keine konkreten Maßnahmen oder Gesetze. Es werden jedoch bereits Strategien entwickelt, wie bspw. Aktionsplan Deepfake der österreichischen Bundesministerien. Dabei werden jedoch keine konkreten Änderungen in der Gesetzeslage gefordert, sondern eine Sensibilisierung der Bevölkerung und der Einsatz von Softwaretools, welche Deepfakes erkennen sollen und Fact-Checker-Plattformen. 5
Im letzten Schritt dürfen die Schüler*innen selbstständig mithilfe von Apps versuchen, überzeugende Deepfakes zu erstellen. Eine hilfreiche App ist dafür die Bildmanipulations-App Wombo, mit deren Hilfe man Selfies zum Singen bringen kann. Eine weitere mögliche Apps dafür wäre Reface (Achtung: der kostenpflichtige Pro-Modus muss zu Beginn oben auf dem X weggeklickt werden)