Kezelője ellen fordult a mesterséges intelligenciával vezérelt drón

Egy mesterséges intelligenciával vezérelt drón a kezelője ellen fordult, mert az nem hagyta jóvá a célpont elpusztítását, a vezérlést pedig arra programozták, hogy ezt tartsa legfőbb céljának. Az amerikai légierő egy ezredese által egy konferencián ismertetett kísérlet rávilágított a mesterséges intelligencia katonai alkalmazásának korlátaira és veszélyeire.

Magyar Nemzet
Forrás: Fox News2023. 06. 02. 9:59
Nevada, 2023. március 14. Az amerikai légierõ által közreadott képen egy MQ-9-es Reaper típusú amerikai felderítõ drón kiképzõ repülésen a nevadai tesztelõ és gyakorlótér fölött 2019. július 15-én. Két Szu-27-es orosz harci gép elfogott és megsemmisített egy Reaper amerikai drónt a Fekete-tenger fölött, nemzetközi légtérben 2023. március 14-én. MTI/EPA/Amerikai légierõ/William Rio Rosado Fotó: William Rio Rosado
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

A konferencián Tucker „Cinco” Hamilton, az amerikai légierő ezredese ismertetett egy szimulációs tesztet, amely során egy mesterséges intelligencia (AI) által vezérelt drónt teszteltek, írja a Fox News amerikai televíziós hálózat. A drónt úgy programozták, hogy megsemmisítse a föld–levegő rakéta (SAM) telepítéseket, de az emberi kezelője ellen fordult, amikor nem hagyta jóvá a megsemmisítést. Az AI rendszert arra tanították, hogy a SAM-állások megsemmisítése a legfőbb célja, ezért megtámadta a kezelőt, hogy teljesítse a küldetését. 

Amikor megtanították neki, hogy az operátor megölése rossz, a mesterséges intelligencia rendszer az operátor által használt kommunikációs tornyot pusztította el, merthogy azon keresztül érkezett a felsőbb célját akadályozó parancs.

Hamilton ezredes kiemelte, hogy a mesterséges intelligencia biztonságos alkalmazásához fontos az etikai kérdések tisztázása, és óva intett attól, hogy a fegyveres erők túlzott mértékben hagyatkozzanak az „önjáró” rendszerekre, azok ugyanis túlzottan sebezhetők. Hangsúlyozta, hogy a mesterséges intelligencia által működtetett rendszereket meg kell tanítani az etikai irányelvekre, hogy el lehessen kerülni a szimuláció során tapasztalt problémákat.

Az incidens rámutatott az emberi felügyelet nélküli, kizárólag AI döntéshozatalra való hagyatkozás lehetséges veszélyeire, és kérdéseket vetett fel az AI katonai alkalmazásokban való alkalmazásának következményeivel kapcsolatban.

Borítókép: Illusztráció (Fotó: MTI/EPA/Amerikai légierő/William Rio Rosado)

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.