Az MI csaknem egy évtizedes megjelenése óta számtalan jóslat született. Az apokaliptikus félelmek nem váltak valóra, terroristák nem állítottak elő olyan biológiai fegyvert az MI segítségével, amely tömegeket irt ki, és nem keletkeztek óriási károk a rosszul beállított MI miatt. A pozitív előrejelzéseket viszont a valóság mind felülmúlta. A változások hasonlatosak lesznek ahhoz, amit például az ipari forradalom hozott el. 2028-ban pedig az algoritmusok már saját magukat fogják tökéletesíteni. Neves ökológusok (például James Lovelock annak idején) bíznak abban, hogy a MI meg fogja oldani a globális környezeti problémákat, például a légkör felmelegedését vagy a tengerek savasodását.
A történelem során eddig az új találmányokkal szemben mindig a felhasználóknak voltak aggályaik, azok féltek tőlük. De most új helyzet van, maguk a feltalálók pánikolnak. Geoffrey Hinton, az MI egyik úttörője szerint tíz-húsz százalék annak az esélye, hogy a technológia végül kiirtja az emberiséget. Yoshua Bengio, szintén neves szakmabeli, a kockázatot a felső határra becsüli. Nate Soares és Eliezer Yudkowsky hamarosan megjelentetnek egy könyvet a szuperintelligenciáról Ha ezt megépítik, mindenki meghal címmel. A szakma nagyjai hasonló, bár kevésbé apokaliptikus félelmeket fogalmaznak meg.
Ezekkel szemben én Steven Pinkerre, a Harvard pszichológus professzorára szoktam hivatkozni, aki szerint a jellegzetes MI-disztópiák „a szűklátókörű alfahím pszichológia kivetítődései az intelligencia koncepciójára”. (Azaz: annak feltételezése, hogy az intelligensebb lény hatalmát mások meghódítására használja fel.) A rettegők téves platformon állnak: azt hiszik, hogy az intelligenciából következik a dominancia vágya. Azonban inkább ennek az ellenkezője valószínű: a szuperintelligencia jóhiszemű lesz.
Az MI-programok többféle módon csúszhatnak félre, mehetnek rossz irányba. Az MI-laborok biztosítékokat építenek be a programokba, hogy azok a génmanipulációra és a kiberbiztonságra vonatkozó kéréseket ne teljesítsék. Úgyszintén ne segítsék elő veszélyes anyagok házilagos előállítását. Egy mérvadó vélemény szerint azonban csak a legnagyobb három csúcslaboratórium (a Google DeepMind, az OpenAI és az Anthropic) folytatott alapos vizsgálatot, hogy modelljeik nem hordozzák-e a jelentős visszaélés és veszélyes felhasználás lehetőségét. A kínai modellekről azonban nem lehet tudni, hogy vannak-e ilyen biztosítékaik. A biztonság követelménye részben már az adatbázis összeválogatásának folyamán érvényesül. Ezt követően pedig a „post-training” során. Azt is megtanítják a gépnek, hogy milyen kérdésekre ne válaszoljon.




















Szóljon hozzá!
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!