Wayback Machine segítségével egy kis időutazásra indulhatnak. Felfedezhetik saját iskolai honlapjukat, klubhonlapjaikat vagy blogjaikat. Ezt követően folytassuk a beszélgetést az internetes archívumok előnyeiről és hátrányairól, valamint arról, hogy felhasználóként mit lehet tenni, ha kellemetlen tartalmak kerülnek fel az internetre.
Ha magánjellegű tartalom, például meztelen képek kerülnek fel az internetre, senkinek sem kell egyszerűen elfogadnia. Mert még ha a végleges törlés rendkívül nehéz is, akkor is érdemes fellépni ellene! A szerzőkkel a közösségi médiaplatformokon lehet felvenni a kapcsolatot. Ha nem távolítják el a tartalmat, akkor az irányelvek megsértése (meztelenség, erőszak stb.) esetén közvetlenül feljelentést lehet tenni. Egyéb esetekben a megfelelő moderátorokhoz és az oldal üzemeltetőihez lehet fordulni. Más weboldalakkal és blogokkal kapcsolatban is először az oldal tulajdonosaival kell felvenni a kapcsolatot, és kérni őket a tartalom törlésére. Ha a kérésnek nem tesznek eleget, feljelentést lehet tenni a rendőrségen. Ez többek között a "saját képhez való jogra" (UrhG 78. §) vagy a "kiskorúak pornográf ábrázolására" hivatkozhat a 18 év alattiak meztelen képei esetében.3
Az alábbi weboldalon további információkhoz juthattok: www.ombudsstelle.at
Az idő szűkössége miatt a modul ezen része elsősorban a videó hamisítványokkal foglalkozik, bár ezek csak egy kis részét teszik ki a digitális dezinformációnak és az álhíreknek. A közösségi médiában történő manipuláció további izgalmas, mélyreható aspektusai lennének például a közösségi média trollok vagy a közösségi robotok működése.
A tartalomhamisítványok manipulált vagy mesterségesen létrehozott hang- vagy képhordozók, amelyek valódinak tűnnek. Olyan embereket mutatnak, akik látszólag olyasmit mondanak vagy tesznek, amit soha nem mondanának vagy mondtak volna korábban. A tartalomhamisítványokat mesterséges intelligencia, például gépi tanulás és mélytanulás segítségével hozzák létre.
Köszönhetően a képfeldolgozás és -manipuláció terén megvalósuló új technológiai fejlesztéseknek, a deepfake-ek is egyre hitelesebbnek tűnnek. Egyrészt a számítógépes látás területén olyan algoritmusokat fejlesztettek ki és tökéletesítettek, amelyek automatikusan felismerik és feltérképezik az arcszerkezeteket (pl. a szemöldök és az orr helyzetét), ami új technológiákat eredményezett az arcfelismerésben. Másrészt az internet térhódítása - és különösen a képeket és videókat megosztó platformok révén - hihetetlenül nagy adathalmazt hozott létre az ehhez felhasználható audiovizuális adatokkal.
A tartalomhamisítás programokban általában két konkrét mesterséges intelligencia-megközelítéssel találkozhatunk: a Generative Adversarial hálózatokkal (GANs) és az automatikus kódolással. A GAN-ok olyan gépi tanulási algoritmusok, amelyek képesek képsorozatokat elemezni, és ezáltal új, hasonló minőségű képeket létrehozni. Az autokódolók ezzel szemben képesek a képekből információt kinyerni az arcszerkezetekről, és ezt az információt felhasználni egy új arckifejezés modellezésére.
Mivel ezekkel a technikákkal valósághűen lehet szimulálni egy személy arckifejezéseit és mozgástípusait, ma már nagyon nehéz megmondani, hogy egy hamisítványt vagy az eredetit nézzük. Azonban nem csak egy meglévő arc arckifejezéseit lehet megváltoztatni: Az arcok kicserélhetők és a semmiből is létrehozhatók.
A médiamanipuláció és a képfeldolgozás korántsem új jelenség. A tartalomhamisítás lényegét tekintve csak egy sokkal régebbi jelenség technológiai továbbfejlesztése. A közösségi médiaplatformok megjelenése, és a tartalmak (és így a hamis tartalmak, pl. az álhírek) élénk cseréje és megosztása jelentősen megváltoztatta a médiatájképet. Ráadásul az olyan alkalmazások, mint a Snapchat, az Instagram és a TikTok már alacsony küszöbű szűrőket kínálnak az alkalmazásokon belül, amelyekkel arcokat lehet megváltoztatni és videókat szerkeszteni.
Emellett a vizuális média, különösen a videó, mint kommunikációs eszköz térhódítása is jelentős. A vizuális médiát az információterjesztés különösen hatékony módjának tekintik. Eddig is köztudott volt, hogy a szövegekben félretájékoztatást helyeznek el, vagy a fényképeket manipulálják, de a videót sokan még mindig erős bizonyítéknak tartották, amelyet nehéz meghamisítani.
Hamis információkat lehet terjeszteni a deepfake-eken keresztül, és egyes felhasználók már nem tudnak különbséget tenni az igazság és a fikció között. Sok ilyen jelentést szándékosan hoznak létre, hogy valamilyen kárt okozzanak. A tartalomhamisítás terjedése bizonytalanságot kelt az internetfelhasználók körében: Mi az igazság, és mi a tény? Ebben az esetben melyik médiában lehet még megbízni, és ki manipulálja a tartalmát? A tartalomhamisítás kizárólagos létezése miatt sok felhasználó már nem biztos abban, hogy melyik tartalomban lehet még megbízni. 4
A tartalomhamisítási technológiák számos célra felhasználhatók, pozitív és negatív hatásokkal egyaránt. A deepfake-ek hasznosak lehetnek például az audiovizuális médiaprodukciók területén (pl. ha hiányzik egy színész), jobban működhetnek az ember-gép interakciók, de olyan területeken is helyet kaphatnak, mint a videokonferenciák, a szatíra és a művészeti projektek vagy a sebészeti arcrekonstrukció. Ugyanakkor számos negatív aspektus is felmerül, mint például a zsarolás, a rágalmazás, a zaklatás, a személyazonosság-lopás, a jó hírnév megsértése, a hírmédia manipulálása, a tudományba, az üzleti életbe és a politikába vetett bizalom elvesztése, a választások manipulálása, a nemzetközi kapcsolatok és a nemzetbiztonság károsítása.
A deepfake-ek leleplezése hosszú időt vehet igénybe, ami azt jelenti, hogy látszólag kis videók nagy problémákhoz vezethetnek. Az óra során a tanulóknak önállóan kell példákat találniuk arra, hogy kik használják ezeket a technológiákat, és kinek árthatnak. A példák végigjátszásával képet kaphatnak arról, hogy milyen méreteket ölthet egy manipulatív hamisítás.
Az Instagramra és a Twitterre feltöltöttek egy látszólag valós videót, amelyen egy politikus a kamera előtt vallja be, hogy több millió eurót csalt ki. Ez a videó nem csak a politikus hírnevét rontja, és pszichológiai károkat okoz. Például a politikust vagy a pártot további hamisított vallomásokkal fenyegetve megzsarolhatják. A választók elveszítik a pártba vetett bizalmukat, és a következő választáson már nem fognak rá szavazni. Ez a bizalmatlanság odáig fajulhat, hogy általában már nem bíznak a rendszerben.
Végül közösen megvitatható, hogyan lehet megelőzni a veszélyes deepfake-eket. A lehetséges megközelítések például a következők lennének: ne tegyél fel magadról videókat a világhálóra, kerüld a hangüzeneteket, ne engedd, hogy a nem kívánt tartalmakat rögzítsék, és ragaszkodj a fényképek/videók törléséhez, szigorú törvények alkalmazása a következőkre vonatkozóan: hamisítás, szigorúbb ellenőrzések (különösen a közösségi médiaplatformokon) a terjedés megfékezésére.
Jogi szempontból a mai napig nincsenek konkrét intézkedések vagy törvények. Stratégiák azonban már kidolgozás alatt állnak, mint például az osztrák szövetségi minisztériumok deepfake cselekvési terve. A jogi helyzet konkrét megváltoztatására azonban nincs szükség, hanem a lakosság tudatosítására és a hamisítványok felismerésére szolgáló szoftvereszközök és tényellenőrző platformok használatára. 5
Az utolsó lépésben a diákok megpróbálhatnak önállóan, alkalmazások segítségével meggyőző hamisítványokat létrehozni. Ehhez hasznos applikáció a Wombo képmanipuláló alkalmazás, amellyel szelfiket lehet énekeltetni. Egy másik lehetséges alkalmazás erre a célra a Reface (megjegyzés: a fizetős Pro módot ki kell X-elni az elején).