A mesterséges intelligencia az új digitális Kánaán?

A valós problémákról eltereli a figyelmet, nem old meg semmit és nem elég konkrét – osztotta meg véleményét a mesterséges intelligencia (MI) fejlesztésének féléves leállítását követelő levélben foglaltakról lapunkkal Ződi Zsolt MI-szakértő. Emellett kifejtette, hogy ha az MI-t betiltják, akkor a Facebookkal is ugyanezt kell tenni. Veszelszki Ágnes tanszékvezető docens azt emelte ki, hogy a mesterséges intelligencia már a mindennapi élet elengedhetetlen részének tekinthető. Kitért arra, hogy milyen bűncselekményeket valósítottak meg az eszköz segítségével, és milyen jogi szabályozásra van szükség.

2023. 04. 12. 4:55
Data Center 1&1
Data Center 1&1 Fotó: ULI DECK
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

Semmi nem oldódik meg, ha fél évre leállítják a mesterséges intelligencia (MI) fejlesztését – mondta lapunknak Ződi Zsolt, a Nemzeti Közszolgálati Egyetem tudományos főmunkatársa. Hozzátette, nem tudni, hogy a leállás során elzárnák-e az eszközt a nagyközönség vagy azok elől, akik erre applikációkat fejlesztenek. Feltette a kérdést: ha a mesterséges intelligencián alapuló, összetett kérdéseket párbeszédjelleggel megválaszolni képes ChatGPT-t, illetve a hozzá hasonló nagy nyelvi modelleket is leállítják, hogyan fogják ellenőrizni, hogy nem történik bennük semmi. – Úgy tűnik, mintha az MI etikája most születne meg, de valójában erről intenzíven vitáztak a 2010-es évek elejétől. Szó sincs arról, hogy ráerőltetik az emberekre, és azt sem tudják, milyen következményei lesznek – szögezte le a tudós.

Dezinformációt terjeszthet

Alaposan végiggondolták, hogy a technológia széles körű elterjedésének milyen következményei lehetnek, és a legnagyobb, az igazi veszélynek a dezinformáció terjesztése tekinthető, amire a chatbotokat nagyon jól lehet használni – jegyezte meg Ződi Zsolt, hozzátéve: a specifikus információk lekérésekor a gépek hajlamosak „hallucinálni”, illetve rossz információt adni. – Például ha egy orvosi kérdés kapcsán az MI azt mondja, hogy vegyünk vagy ne vegyünk be egy gyógyszert, a rossz információ következményeibe akár bele is lehet halni – világította meg a problémát a szakember. Valós veszélynek tekinti azt is, hogy az MI néhány szakmára rossz hatással lesz, bizonyos részterületeket és munkafolyamatokat ki fog váltani, amire példaként említette, hogy a jogban remek szerződéseket tud majd írni a hallucinációs hajlamának megszüntetése után.
Mint Ződi Zsolt ismertette, az MI valójában egy nyelvi modell, ami szavakat tesz egymás után valószínűségi sorrendben, melynek köszönhetően az általa alkotott szöveg nagyon hihetőnek és kreatívnak tűnik, ám nem mindig valós. – Testre kell szabni az eszközt bizonyos szakmáknál és bizonyos helyzetekben, és amíg ez nem történik meg, a pontatlanság fennmarad. 

A ChatGPT-nél ugyanis nincs olyan, hogy „nem tudom”, hanem mindig mond valamit, és ha ez blődség, akkor is mondja, a hibái nagyon emberiek 

– hívta fel a figyelmet.
Felidézte: az Európai Unió 2020-ban beadott egy MI-re vonatkozó jogszabálytervezetet, ami egy kockázatmegelőző jellegű szabályozás, és arról szól, hogy az eszköznek milyen kritériumoknak kell megfelelnie. Ez a tervezet a szakterület-specifikus mesterséges intelligenciákra készült, így általános célú motorokra nincs igazán felkészítve. Rámutatott: az MI kapcsán a ChatGPT két okból is új helyzetet teremtett: egyrészt azzal, hogy a területspecifikus szabályozás nem jó rá, másrészt a széles nagyközönség most találkozott először a hétköznapokban a mesterséges intelligenciával.

Azt is elmondta, hogy az egészségügyben évek óta vannak olyan területek, ahol a képalkotó eljárásokon alapuló, mesterséges intelligenciával meghajtott orvosdiagnosztikai eszközök akár több tíz százalékkal eredményesebben diagnosztizálnak, mint a hús-vér orvosok. 

– Az etikai kérdések, hogy a leletet hogyan magyarázzák, ki közölje a diagnózist, vagy milyen eljárást kövessenek az eredmény megszületése után, már évek óta napirenden vannak, csak most lett ilyen látványos – egészítette ki.

Sérül a GDPR

Komoly aggálynak nevezte Ződi Zsolt a személyes adatok védelmét, mert nem lehet tudni, hogy mi történik velük. Az MI-rendszerek tüzetesen átkutatják a teljes internetet az ott található személyes adatokkal együtt. – A teljes cégadatbázis az összes adattal például szabadon hozzáférhető az Egyesült Királyságban, mert ott fontosabbnak tartják a cégnyilvánosság elvét az adatok védelménél, azonban a személyes adatok eltérő célú felhasználása nem megengedett, tehát ez alapján felhasználói profilt nem volna szabad készíteni – fejtette ki. Hangsúlyozta, ez már tényleg problematikus felhasználás, és az európai adatvédelem szabályai szerint nem megengedett.

Ződi Zsolt, a Nemzeti Közszolgálati Egyetem tudományos főmunkatársa. Fotó: Mirkó István

A tudományos főmunkatárs véleménye szerint ha be is tiltanák a ChatGPT használatát, az technikailag könnyen megkerülhető lenne.

 – Itt lesznek velünk ezek a modellek, amiket mindenki használni fog, a konkurens amerikaiakat és a kínaiakat pedig az adatvédelem kérdése kevésbé foglalkoztatja, így Euró­pa egy mesterséges versenyhátrányt hoz létre saját magának – érvelt. Márpedig a jelenlegi GDPR alapján az MI működése Európában teljesen illegális, emiatt mind a tiltás, mind a bírságolás jogos, de a kérdés szerinte az, hogy a jelenlegi jogi álláspont fenntartható-e.

 Úgy fogalmazott, az európai adatvédelmi jog túl szigorú, és nincs felkészülve a nyelvi modellekre, ahogy nincs felkészülve a közösségi médiára sem. 

– Ha betiltjuk a ChatGPT, akkor be kellene tiltani a Facebookot is – hangsúlyozta. 

Találni kell egy olyan kompromisszumot, ahol a nagy nyelvi modellek tudnak működni, Európa nem maradhat le ebben a versenyben, de az adatvédelem lényegét szükséges megtartani – javasolta Ződi Zsolt.

Kísért a Black Mirror 

– Kiszámíthatatlan, hogy hosszabb távon milyen eredményeket és következtetéseket lehet levonni a ChatGPT-vel folytatott beszélgetésekből, de a sötét jövőképet festő Black Mirror-sorozat szellemét már most megidézi – jelentette ki Veszelszki Ágnes, a Nemzeti Közszolgálati Egyetem tanszékvezető docense. Úgy véli, hogy a sorozatban néhány évvel ezelőtt feltűnt jelenségekről olybá tűnik, hogy valósággá válnak, például amikor egy chatrobot életre kelt, és egy halott barátot helyettesített.
– Egyre többet beszélnek ennek és a hasonló alkalmazásoknak a veszélyeiről, és Olaszországban már be is tiltották, részben szerzői jogi, részben etikai okok miatt, részben pedig azért, mert nem kiszámíthatók a válaszai. A szerzői jogot illetően felmerül a kérdés: kié az adott szöveg? Nem mondhatjuk, hogy a hagyományos szabályok szerint ez plá­gium lenne, mert az azt jelenti, hogy valaki másnak a szövegét átvesszük és a saját nevünk alatt használjuk fel, tesszük közzé.

 A ChatGPT ezzel szemben sok-sok mintából, többmilliónyi szöveg felhasználásával alkot egy új szöveget, de hogy a mintázatokban található szöveg kié volt, azt nem lehet tudni. Ugyanez a helyzet áll fenn a képalkotó mesterséges intelligenciánál is 

– fogalmazta meg kétségeit a szakértő.
Az etikai kételyekről elmondta: érdekes kérdés, hogy milyen témák számítanak tabunak. Ezt valamennyire a szoftvercégek szabályozzák, az eszközt ugyanis nem lehet ismert személyekről olyan szövegek alkotására kérni, amelyek őket rossz színben tüntetnék fel. Azonban Veszelszki Ágnes szerint felvetődik a szólásszabadság kérdése is: hol húzódik a demokratikus megszólalás határa, például engedélyezettek-e pornografikus szövegek, mennyire lehet rágalmazó vagy rosszindulatú szövegeket megalkotni, hamis információt közzétenni valakiről. A másik nagy etikai dilemmának, Ződi Zsolthoz hasonlóan, azt tartja, hogy mennyire hihetünk a ChatGPT-nek, mert az a dezinformáció terjesztésében új szerepet játszhat. 

– Az eszköz nem jár utána a forrásoknak, az információknak vagy annak, hogy milyen tényszerű alapja van az összeállított szövegeknek – mutatott rá.

A bűnözők is felfedezték

Veszelszki Ágnes figyelmeztetett: a bűnözők már most is használják a mesterséges intelligenciát hangklónozásra. A világ egyik vezető techcégének már elérhető alkalmazásában ha valaki elkezd mondani egy szöveget, akkor a rendszer az ő hangján, stílusában és ugyanabban a témában, illetve azzal a tartalommal folytatni képes azt. Ily módon új, megtévesztő informá­ciók jöhetnek létre.
A tanszékvezető felidézte azt az esetet, amikor felhívtak egy Angliában élő cégvezetőt a Németországban lakó pénzügyi vezetője hangján, hogy utaljon át 240 ezer dollárt, amit meg is tett. A megtévesztett cégvezető később elmondta, hogy az alkalmazás még a németes akcentust is képes volt utánozni. Ennek a megvalósításához elegendő néhány másodperces tartalom, de ha az eszköz ennél több mintát kap, akkor még meggyőzőbb és hitelesebb lesz a hangmásolata.
A tanszékvezető szerint a veszélyek elkerüléséhez elengedhetetlen a forráskritika és a médiatudatosság. – Bonyolítja a helyzetet, hogy megjelenik a szakirodalomban csak „a kétely kételye paradoxonnak” nevezett jelenség. 

Ha az emberek elkezdenek mindenben kételkedni, és úgy vélik, hogy semmi nem igaz, amit a különböző médiumokban látnak és hallanak, akkor abban is kételkedni fognak, ami valójában igaz – világított rá Veszelszki Ágnes, aki szerint emellett azt is meg kell mutatni, hogy ezeknek az alkalmazásoknak milyen előnyei vannak. 

Kiemelte: most az a szakemberek és a média feladata, hogy felhívják az emberek figyelmét az új típusú képalkotó és hangklónozó alkalmazások létezésére, valamint arra is, hogy ezeknek nem garantált az igazságtartalmuk. – Ha ennek valamennyire tudatában vannak, az már nagy segítség – jelentette ki.

Szükséges a szabályozás

Úgy vélte, a következő lépés az lesz, hogy jogi szabályozás is kapcsolódik majd ezekhez az alkalmazásokhoz. Felidézte: a közelmúltban megjelent olyan kiírás, amelyben kitételként fogalmazták meg, hogy aki mesterséges intelligencia segítségével írja meg a pályázatot, azt kizárják. – Nehézséget jelent, hogy az MI használatát sokszor nem lehet detektálni, de biztosan készülni fognak felderítő alkalmazások, emellett pedig a szakértők azt próbálják elterjeszteni, hogy legyen vízjel a szövegeken is. A cél az, hogy visszakövethetővé tegyék, milyen szövegeket, képeket és videókat használt fel a mesterséges intelligencia egy új alkotás létrejöttéhez – fogalmazott a szakértő.

Veszelszki Ágnes, a Nemzeti Közszolgálati Egyetem tanszékvezető docense. Fotó: Mirkó István

Példaként említette, hogy a ChatGPT használata az egyetemi hallgatóknak a hétköznapok részévé vált, sőt körükben már a népszerű internetes keresőket is felváltotta, mivel nem csak listázott találatokat kapnak. – Új készségek fejlesztése is előtérbe helyeződik a mesterséges intelligencia használatával: ahelyett, hogy rendszerezni kellene a találatokat, azokból megtalálni a prioritásokat és a releváns információ­kat, már a gépnek adott utasításokat lehet fejleszteni, de annak eldöntése, hogy mi a hiteles információ, továbbra is fontos marad. Nagyon sok kutatásra van még szükség, de az biztos, hogy át fog alakulni a kereséshez, az információkhoz és az adatokhoz való viszonyunk – zárta gondolatait Veszelszki Ágnes.

Borítókép: illusztráció (Fotó: Europress/AFP)

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.