Jogsértéseket idézhet elő a mesterséges intelligencia

Már nem csak ember lehet szerző a mesterséges intelligencia (MI) rohamos elterjedésével, ezért újra kellene írni a plágium fogalmát – fejtette ki lapunknk Pató Viktória Lilla, a Nemzeti Közszolgálati Egyetem jogásza. Az eszköz jogi szabályozásáról úgy vélekedett: szükség volna egy uniós szabályozó keretrendszerre, ha ugyanis megtiltanák az MI használatát, az óriási versenyhátrányt jelente az Európai Uniónak. Emellett a kutató kitért a fejlesztők felelősségére, valamint arra is, hogyan védik a személyiségi jogokat az MI használata közben.

2023. 06. 16. 5:37
February,5,,2023,,Mirissa,,Sri,Lanka.,Using,Openai,Chatgpt,On
2261074787 Fotó: Artie Medvedev
Vélemény hírlevélJobban mondva- heti vélemény hírlevél - ahol a hét kiemelt témáihoz füzött személyes gondolatok összeérnek, részletek itt.

Újra kellene definiálni a plágium és a szerző fogalmát a mesterséges intelligencia (MI) rohamos elterjedése miatt, mert szerző jelenleg csak ember lehet – nyilatkozta a Magyar Nemzetnek Pató Viktória Lilla, a Nemzeti Közszolgálati Egyetem Eötvös József Kutatóközpont Európa Stratégia Kutatóintézetének kutatója. Kifejtette: nincs jogszabályban lefektetve az, hogy az MI által generált szövegnek ki a tulajdonosa. Amit a generatív nyelvi modellek végeznek, az egy statisztikai módszer, előre betanított adatok alapján a szövegkörnyezetből kiválasztják a feltett kérdésre a szerintük legmegfelelőbb választ. 

Az MI nem képes kreatív gondolkodásra, azonban statisztikai módszerével lehet, hogy mégis egy olyan új ötlethez jut a kérdező, ami már adott esetben egy új szellemi terméknek is minősíthető, ugyanakkor ezt még jogszabály nem rendezi. 

Eljátszva a gondolattal, ha megjelölnénk a ChatGPT-t társszerzőnkként, már nem beszélhetnénk plágiumról, hiszen együtt írjuk a művet – világított rá a kutató. Fontos ugyanakkor megjegyezni, hogy a generatív nyelvi modellek kizárólag a kérdező emberre reagálnak, tehát a kérdés feltevése a kulcsa annak, hogy mennyire szofisztikált, illetve releváns választ kapunk. Ezért napjainkban a korábbiaknál talán még fontosabb az, hogy az oktatási rendszer a kreatív és kritikus gondolkodást, valamint a jó kérdések feltevése képességének elsajátítását fejlessze – magyarázta.

Zajlik az uniós vita

Mint tudatta, az uniós MI-jogszabályi csomagot az Európai Bizottság már 2020-ban beterjesztette és erről az Európai Parlamentben már meg is szavaztak egy állásfoglalást. 

A menetrend szerint a csomagot éppen a jövőre esedékes magyar elnökség alatt fogják elfogadni. Ez sem tárgyalja azonban mélységében a generatív modelleket, hiszen két évvel ezelőtt ez a terület még nem volt ilyen kiforrott. 

A kutató nem tartotta valószínűnek, hogy erre globális szintű szabályozás fog születni, ahogyan a plágium definíciója sincs jogilag meghatározva, csupán elfogadott etikai normák léteznek. Már lefektették jogi dokumentumokban a válaszokat azoknak a kérdéseknek egy részére, hogy mennyire káros az MI által előállított tartalom, vagy mennyire érinti az emberi jogokat, vagy hogyan jelenik meg az átláthatóság értéke az ember és az MI kapcsolatában.

Felhívta a figyelmet arra, hogy amikor az MI által generált szöveget szeretnénk beépíteni a saját munkánkba, azt előtte le kell ellenőrizni. – Nagyon tud segíteni az MI abban, hogy új ötletet, inspirációt, vagy nagyon gyorsan elérhető dokumentumokat találjunk, viszont nem szabad megbízni benne, mert a statisztikai módszerei miatt „hallucinál". Nem kérhető számon, hogy miért adott ki nem valós eredményt. 

Ha az ember nem néz utána az adott eredménynek, akkor a saját karrierjére végzetes hibát is elkövethet, ezért hangsúlyozni és tanítani is kell, hogy nem szabad egy az egyben elfogadni az MI-től kapott megoldásokat – figyelmeztetett. 

Jogilag tehát nem elfogadható az, hogy „én csak a ChatGPT-re hivatkoztam a tárgyalás során”, mert a felelősséget a hivatkozó ember viseli, nem az MI, vagy az azt fejlesztő cég.

A fejlesztők felelőssége

Pató Viktória Lilla rámutatott: a fejlesztők viszont felelősségre vonhatók az adatvédelem hiánya és az adatok felhasználásának átláthatatlansága miatt, erre jó példa a ChatGPT ideiglenes olaszországi betiltása, amikor több millió előfizető adatai kerültek nyilvánosságra. Az adat, azaz a legkisebb információ egység, a digitalizáció tápanyaga, amit el lehet lopni birtokosának tudomása nélkül. A felelősség ezért megállapítható azt illetően, hogy milyen módon kezelik a felhasználói adatokat, mennyire felel meg a szabályozásoknak, például Európában a GDPR-nak – tájékoztatott. Hozzátette: a ChatGPT-t fejlesztő OpenAI cég azonban amerikai székhelyű, és ilyenkor merül fel az a kérdés, hogy van-e olyan globális szabályozó, ami ezeket az adatvédelmi incidenseket vagy felelősségre vonhatósági eljárásokat meghatározza. 

Ha az európai piacról a meg nem felelés miatt kitiltanák a szolgáltatást, akkor a kontinens versenyhátrányba kerülne a liberálisabb szabályozású amerikai piachoz képest, ezért szükséges a piacok közti együttműködés – fejtette ki a szakértő. 

Emlékeztetett: az OpenAI végül úgy kezdhetett újra működni Olaszországban, hogy nyilvánosságra hozta az addig még csak nem is létező adatvédelmi szabályzatát, illetve kiírta azt, hogy mi az ő felelőssége és mi nem, érintve többek között a kiskorúak beazonosíthatóságára vonatkozó tudnivalókat.

Arra a kérdésre, hogy Magyarországon lehet-e minta az olasz szabályozás, Pató Viktória Lilla azt felelte: nem értelmezhető és nem javasolt, hogy a felhasználási szabályok országonként eltérők legyenek, mert túl nagy különbségeket eredményezhetnének. Úgy vélte, inkább egy olyan keretrendszert kellene meghatározni adott kritériumok alapján, aminek ha megfelel egy nyelvi modellt fejlesztő cég, akkor beléphet az európai piacra, ha pedig nem, azzal uniós piacot veszít.

A Brüsszel-hatás

Szerinte mivel nagyon gyors a fejlődés, ha Európa hónapokkal lemarad más kontinensekhez képest, akkor ez problémás lehet, és a bürokrácia nem biztos, hogy ezt le tudja követni. Az európai szabványoknak megfelelő termékeknél megjelenik az, hogy a duplikációkból fakadó többletköltség elkerülése érdekében, a nem európai gyártók a termékeiket kifejezetten uniós piacra készítik. Ennek eredményeként a nyelvi modellekre Brüsszel hoz keretrendszert és új szabályokat, ez pedi úgynevezett „Brüsszel-hatásként" befolyásolhatja a többi piacot is.

A személyiségi jogokat is védik az MI-használata közben, amire a kutató példaként a szövegből képet alkotó programot említette. Ha ennek a programnak az alkalmazásával egy ember nevét írják be a gépbe, akkor az illető arcképe nem jelenik meg, vonásai elmosódnak. Ez azért is van, mert például a kiberbűnözők vagy a propaganda előszeretettel alkalmazza ezeket az eszközöket. Az tehát biztosan állítható, hogy a társadalmi felhasználásra létrehozott szoftverek kiszűrik ezeket és etikusan működnek – mondta. Hozzáfűzte: ha valaki nem tartja be az etikai normákat, annak még nincsenek egységesített és általánosított szankciói.

Elfogadta az EP az MI-szabályozás álláspontját

Az Európai Parlament plenáris ülése elfogadta a mesterséges intelligencia (MI) jogszabályról szóló álláspontját, amely a világon az első átfogó MI szabályozás lehet – adta hírül közleményében a Fidesz európai parlamenti képviselőcsoportja. Tóth Edina, a Fidesz EP-képviselője szerint „a mesterséges intelligenciának rengeteg alkalmazási területe van, és számos lehetőséget rejt magában. Ugyanakkor nyilvánvaló, hogy az MI nem maradhat szabályozás nélkül”. A képviselő ezen felül hangsúlyozta az átláthatóság és a nyomon követhetőség fontosságát. „Támogatjuk az innovációt, ugyanakkor gondolnunk kell az alkalmazás lehetséges veszélyeire is, és azokat kellő körültekintéssel kell szabályoznunk. Bízom benne, hogy ez a jogszabály biztosítani tudja a jogi kereteket ahhoz, hogy a mesterséges intelligencia a polgárok és vállalkozások számára biztonságos eszközként működjön. Jól mutatja a MI-rendszerek fejlettségét, hogy a parlamenti vita során elmondott beszédemet is mesterséges intelligencia írta” – jelentette ki a fideszes politikus.

Hidvéghi Balázs, szintén fideszes EP-képviselő kiemelte: a mai szavazás fontos mérföldkő egy olyan szabályozás kialakításában, amely képes kezelni a mesterséges intelligenciával szembeni állampolgári félelmeket és kockázatokat, ugyanakkor nem jelent túlszabályozást és nem gátolja az innovációt. Úgy vélekedett, olyan végső szabályozásra kell törekedni, ami emberközpontú és a fogyasztók védelmére helyezi a hangsúlyt. „Ahhoz, hogy növeljük a MI irányában az állampolgári bizalmat, elsősorban a kockázatokat kell beazonosítani és kiszűrni. Azokat a használati módokat kell előnyben részesíteni, amelyekből az embereknek és a társadalomnak előnye származik. Bizakodásra ad okot, hogy az európai szabályozás is ezt a megközelítést követi” – fogalmazott a képviselő. (MTI)

Borítókép: A ChatGPT miatt újra kell értelmezni a szellemi termék fogalmát is (Fotó: Shutterstock)

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.