Az elmúlt év szinte minden hónapjára jutott egy-egy, a mesterséges intelligencia (MI) és a gépi tanulás fejlődéséről szóló remek hír. Az AlphaGo nevű szoftver például legyőzte a világ legjobb gojátékosának tartott Ko Csiét, majd következő verziója, az AlphaGo Zero az elődjét verte tönkre a bonyolult játékban úgy, hogy emberi segítség nélkül tanulta meg. A különféle, mesterséges intelligenciát használó megoldások egyre szélesebb körben jelennek meg mindennapjainkban is a fordítóprogramoktól kezdve az orvosi szoftvereken, a hangirányítású asszisztenseken át az önvezető autókig.
Miközben azonban a mesterséges intelligencia kutatása és fejlesztése ilyen biztató ütemben fejlődik, elfeledkezünk odafigyelni a veszélyeire – ezt állítja legalábbis tizennégy neves egyetem, kutatóintézet és magáncég huszonhat kutatója egy százoldalas tanulmányban. A szerzők szerint a mesterséges intelligenciák és a gépi tanulás által kínált megoldásokat ugyanis az életünket kényelmesebbé tevő alkalmazások mellett negatív következményekkel járó dolgokra is fel lehet használni. A legújabb fejlesztések nyomán különösképpen a kiberbiztonság, a különböző távoli irányítású fegyverek és járművek kezelése, illetve a politikai befolyásolás terén kell egyre nagyobb kihívásokkal szembenézni.
Az MI-k használata egyrészről a már most is meglévő támadási formákat teszi sokkal hatékonyabbá, másrészről teljesen új módszereket teremt. A tanulmány szerint a kiberbiztonságot azért veszélyezteti az MI-k csatarendbe állítása, mert olyan mértékű támadásokat tesznek lehetővé, amelyek eddig túlságosan munka- és költségigényesek voltak; vagy olyanokat, amelyek eddig használt biztonsági megoldásokat játszanak ki. Egy mesterséges intelligenciával például hamarosan egészen jól másolható lesz például egy ember beszédhangja, ami a hangazonosítást teszi bizonytalanná. A virtuálison túl a fizikai térben is nagy veszélyt jelenthet például, ha valaki MI-k segítségével automatizált fegyverrendszereket hoz létre, vagy éppen önvezető autókat, drónokat térít el. A politika terén pedig az automatizált megfigyelés, az eddig összegyűjtött adatbázisok automatizált feldolgozása, majd ezek felhasználása vagy például a tökéletes minőségű hamisított videók létrehozása jelenthet gondot.