A mesterséges intelligenciával a deepfake technológia az elmúlt években valóban nagyon elterjedt, és teljesen kifinomulttá vált. Teljes győzelmet azonban nem aratott a valóság felett – mondta el lapunknak Rab Árpád, a Nemzeti Közszolgálati Egyetem Információs Társadalom Kutatóintézetének tudományos főmunkatársa.

De mi is az a deepfake? A kifejezést 2017-ben egy Reddit-felhasználó találta ki, és a deep learning (mélytanulás) meg a fake (hamisítás, manipuláció) szavakból ered. A gyakorlatban ez azt jelenti, hogy a mesterséges intelligencia segítségével olyan tartalmakat hoznak létre, amelyekben az eredeti szereplőket egy másik személy képmásával és hangjával helyettesítik.
A deepfake hatékonysága jócskán felülmúlja még a legjobb Photoshop-applikációét is.
A technológia szinte tökéletesen leképezi az ember arcát és hangját, amit korlátlanul lehet manipulálni, ahogy csak szeretnénk. Az elmúlt években ezek a manipulációs technikák a magyar online médiateret is meghódították, így láthattunk például egy félamatőr felvételen Vlagyimir Putyin orosz elnököt a békéről szavalni.
A kutató szerint ez a technológia inkább egy lehetőség, mint potenciális veszélyforrás, a szoftverek maguktól ugyanis semmit nem csinálnak, a hozzáadott emberi szándék lehet veszélyes.
A videós lehetőségek
Rab Árpád elmondta: az ilyen videók elterjedésének oka, hogy míg korábban csak speciális programokkal tudták őket létrehozni, nemrég megjelentek azok az alkalmazások is, amelyekkel napjainkra tömegek élhetnek a technológia lehetőségeivel. A kutató szerint a deepfake videók döntő többsége teljesen ártalmatlan, szórakoztató, alig néhány másodperces tartalom, készítőit nem a rossz szándék vezérli. A mesterséges intelligenciával akár korábban elhunyt színészeket is vissza tudnak hozni a filmvászonra a szakmabeliek, de akár teljes filmet is elkészíthetünk, elkészíthetnek általa.
A technológia ugyanakkor a rossz szándékot is fel tudja erősíteni.
– Előfordult, hogy különböző sztárok arcát helyezték el pornófelvételekben, banki csalásnál is alkalmazták ezt a technológiát. Utóbbi esetén nem is maga a felvétel ver át bennünket, a csalók általában a kapkodásra apellálnak. Ha csak megállnánk, gondolkodnánk tíz percet, mielőtt megadjuk a bankszámlaszámunkat, már nem tudnának átverni bennünket – részletezte.
A politika és a deepfake
A szakértő kifejtette: ahhoz, hogy minden tökéletes legyen az adott manipulált felvételen (így a fények, a mozgás, a tükröződés stb.), képzett szakemberekre, sok energiára és pénzre van szükség. Rab Árpád azt is elmondta,
a deepfake videókat már használták politikai kampányok során, bár egyelőre olyan kirívó esetek nem láttak napvilágot, amelyek bizonyítottan befolyásolták volna egy választás eredményét.
Indiában 2020-ban például a kormányzó párt elnöke, Manoj Tiwari használt deepfake-et arra, hogy az általa nem használt nyelveken és dialektusokban is meg tudja szólítani a választópolgárokat. (Tiwari eredetileg bhódzspuri nyelven kritizálta az egyik politikai ellenfelét, ezt több mint húsz különböző dialektusra fordították le úgy, hogy a szájmozgása is illeszkedjen a beszédhez, így ért el 15 millió potenciális szavazót.)
A választások előtti információmegosztással járó manipuláció mindig komoly kihívásokat okozott.
– Az új technológia kiskapuit ilyenkor igyekeznek kihasználni a szereplők. A választások előtt a közösségimédia-felületeken algoritmusokat és élő erőt is bevetnek ezen felvételek kiszűrésére – magyarázta. Hozzátette: a társadalom többségét nem lehet ilyen felvétellel becsapni. Ha ugyanis egy politikus szájába olyan szavakat adnak, amelyek a követőinek vagy ellenfeleinek teljesen idegen, azt a választópolgárok többsége kiszúrja. – Létezik azonban olyan társadalmi csoport, amelyik nem tudja, hogy mit gondoljon egy adott politikai kérdésről, személyről vagy pártról, és egy ilyen videó akár meg is változtathatja a politikai preferenciáját – jelentette ki.
Hogyan ismerhetjük fel a deepfake videót?
– Az embereknek van egy tanulási folyamata. Szépen lassan eljutottunk oda, hogy már nem hittünk annak, amit valakik leírtak nekünk. Aztán már a képeknek sem hittünk, rájöttünk, hogy azok is könnyen manipulálhatók. A videók egy ideig hiteles információforrásnak bizonyultak, most azonban ennek a kornak is vége lett. Vége van a hiszem, ha látom korszaknak.
Ezt el kell fogadni, fogadtatni minél szélesebb körben
– magyarázta a kutató. Kifejtette, a legtöbb ilyen felvételen feltüntetik, hogy mesterséges intelligencia által generált. Léteznek emellett olyan, a mesterséges intelligencia alapján működő programok, amelyek által ellenőrizhetjük egy felvétel hitelességét. – A legbiztosabb azonban, ha több forrásból tájékozódunk. Soha ne higgyünk egy adott forrásnak! Olvassuk el több portál tájékoztatóját, beszéljünk ismerőseinkkel, barátainkkal, családtagjainkkal! Ha bankból keresnek, akkor pedig ne kapkodjunk – zárta a gondolatait a szakértő.