Amikor ránk támad az önvezető autónk

Tapsolunk a mesterséges intelligenciák fejlesztésének, de látjuk-e az életünket kényelmesebbé tevő algoritmusok veszélyét?

Pintér Bence
2018. 03. 04. 13:21
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

Az elmúlt év szinte minden hónapjára jutott egy-egy, a mesterséges intelligencia (MI) és a gépi tanulás fejlődéséről szóló remek hír. Az AlphaGo nevű szoftver például legyőzte a világ legjobb gojátékosának tartott Ko Csiét, majd következő verziója, az AlphaGo Zero az elődjét verte tönkre a bonyolult játékban úgy, hogy emberi segítség nélkül tanulta meg. A különféle, mesterséges intelligenciát használó megoldások egyre szélesebb körben jelennek meg mindennapjainkban is a fordítóprogramoktól kezdve az orvosi szoftvereken, a hangirányítású asszisztenseken át az önvezető autókig.

Miközben azonban a mesterséges intelligencia kutatása és fejlesztése ilyen biztató ütemben fejlődik, elfeledkezünk odafigyelni a veszélyeire – ezt állítja legalábbis tizennégy neves egyetem, kutatóintézet és magáncég huszonhat kutatója egy százoldalas tanulmányban. A szerzők szerint a mesterséges intelligenciák és a gépi tanulás által kínált megoldásokat ugyanis az életünket kényelmesebbé tevő alkalmazások mellett negatív következményekkel járó dolgokra is fel lehet használni. A legújabb fejlesztések nyomán különösképpen a kiberbiztonság, a különböző távoli irányítású fegyverek és járművek kezelése, illetve a politikai befolyásolás terén kell egyre nagyobb kihívásokkal szembenézni.

Az MI-k használata egyrészről a már most is meglévő támadási formákat teszi sokkal hatékonyabbá, másrészről teljesen új módszereket teremt. A tanulmány szerint a kiberbiztonságot azért veszélyezteti az MI-k csatarendbe állítása, mert olyan mértékű támadásokat tesznek lehetővé, amelyek eddig túlságosan munka- és költségigényesek voltak; vagy olyanokat, amelyek eddig használt biztonsági megoldásokat játszanak ki. Egy mesterséges intelligenciával például hamarosan egészen jól másolható lesz például egy ember beszédhangja, ami a hangazonosítást teszi bizonytalanná. A virtuálison túl a fizikai térben is nagy veszélyt jelenthet például, ha valaki MI-k segítségével automatizált fegyverrendszereket hoz létre, vagy éppen önvezető autókat, drónokat térít el. A politika terén pedig az automatizált megfigyelés, az eddig összegyűjtött adatbázisok automatizált feldolgozása, majd ezek felhasználása vagy például a tökéletes minőségű hamisított videók létrehozása jelenthet gondot.

– A különböző MI-rendszerek gyakran nemcsak hogy elérik, de túl is lépik az emberi teljesítőképesség határait. Aggasztó, de szükséges megfontolni az emberen feletti hekkelés-, megfigyelés-, meggyőzésimplikációt, ahogy az MI-k olyan képességeit is, amelyek ugyan nem érnek fel az emberhez, de a skálázhatóság miatt sokkal hatékonyabban alkalmazhatók – mondta a Gizmodónak Miles Brundage, a tanulmány egyik készítője. A kutatók szerint az MI-k segítségével rendkívül költséghatékony, egyúttal a korábbinál sokkal finomabban célzott támadásokat lehet majd indítani, erre pedig fel kell készülnie a társadalomnak – mert bizonyára lesznek olyanok, akik ezt ki akarják használni.

A tanulmány éppen ezért különböző javaslatokkal is él azzal kapcsolatban, hogy merre kéne mozdulni. Az öt legfontosabb ajánlásuk egyike, hogy a terület kutatóinak el kell ismerniük az MI-k és a gépi tanulás kutatásának kettős természetét, tehát azt, hogy nem csak pozitív célokra lehet használni az eredményeket, és meg kell vizsgálniuk a hasonlóan kétélű tudományterületek jó gyakorlatait. Ezenkívül a törvényhozóknak szorosan együtt kell működniük a technológia kutatóival, hogy megelőzzék az MI-k rosszindulatú felhasználását.

A Gizmodónak nyilatkozott Ilia Kolochenko, a High-Tech Bridge nevű online biztonsági cég vezetője, aki szerint a tanulmány készítői eltúlozzák a kockázatokat, a következő évtizedben semmilyen drámai változás nem várható a területen. Szerinte a bűnözők már most is használnak alapvető gépi tanulási technológiákat, de azok azért lehetnek sikeresek, mert a különböző védelmi rendszerek felépítésére nem fordítottak elég figyelmet az érintett cégeknél. Az sem elhanyagolható faktor, hogy ezeket a technológiákat a „jófiúk” is használják, ráadásul nekik sokkal több forrásuk van a fejlesztésre, mert ez kifejezetten forrásigényes terület.

A kutatók által félt jövő eközben már itt van a kapuk előtt: tavaly decemberben olyan hamisított, de teljes mértékben hitelesnek tűnő pornóvideók kerültek fel az internetre, amelyekben algoritmus segítségével híres színésznők arcával helyettesítették a vásznon a pornószínésznők arcát. Ez persze ártatlan csínynek tűnik, de képzeljük el, ahogy például Orbán Viktor egy teljesen hitelesnek tűnő videón arról beszél, hogy minden migránst be szeretne fogadni Magyarországra, és máris világos, mekkora veszélyt jelentenek a „deepfake” (mélykamu) videók.

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.