A konferencián Tucker „Cinco” Hamilton, az amerikai légierő ezredese ismertetett egy szimulációs tesztet, amely során egy mesterséges intelligencia (AI) által vezérelt drónt teszteltek, írja a Fox News amerikai televíziós hálózat. A drónt úgy programozták, hogy megsemmisítse a föld–levegő rakéta (SAM) telepítéseket, de az emberi kezelője ellen fordult, amikor nem hagyta jóvá a megsemmisítést. Az AI rendszert arra tanították, hogy a SAM-állások megsemmisítése a legfőbb célja, ezért megtámadta a kezelőt, hogy teljesítse a küldetését.
Amikor megtanították neki, hogy az operátor megölése rossz, a mesterséges intelligencia rendszer az operátor által használt kommunikációs tornyot pusztította el, merthogy azon keresztül érkezett a felsőbb célját akadályozó parancs.
Hamilton ezredes kiemelte, hogy a mesterséges intelligencia biztonságos alkalmazásához fontos az etikai kérdések tisztázása, és óva intett attól, hogy a fegyveres erők túlzott mértékben hagyatkozzanak az „önjáró” rendszerekre, azok ugyanis túlzottan sebezhetők. Hangsúlyozta, hogy a mesterséges intelligencia által működtetett rendszereket meg kell tanítani az etikai irányelvekre, hogy el lehessen kerülni a szimuláció során tapasztalt problémákat.
Az incidens rámutatott az emberi felügyelet nélküli, kizárólag AI döntéshozatalra való hagyatkozás lehetséges veszélyeire, és kérdéseket vetett fel az AI katonai alkalmazásokban való alkalmazásának következményeivel kapcsolatban.
Borítókép: Illusztráció (Fotó: MTI/EPA/Amerikai légierő/William Rio Rosado)