Zajlik az uniós vita
Mint tudatta, az uniós MI-jogszabályi csomagot az Európai Bizottság már 2020-ban beterjesztette és erről az Európai Parlamentben már meg is szavaztak egy állásfoglalást.
A menetrend szerint a csomagot éppen a jövőre esedékes magyar elnökség alatt fogják elfogadni. Ez sem tárgyalja azonban mélységében a generatív modelleket, hiszen két évvel ezelőtt ez a terület még nem volt ilyen kiforrott.
A kutató nem tartotta valószínűnek, hogy erre globális szintű szabályozás fog születni, ahogyan a plágium definíciója sincs jogilag meghatározva, csupán elfogadott etikai normák léteznek. Már lefektették jogi dokumentumokban a válaszokat azoknak a kérdéseknek egy részére, hogy mennyire káros az MI által előállított tartalom, vagy mennyire érinti az emberi jogokat, vagy hogyan jelenik meg az átláthatóság értéke az ember és az MI kapcsolatában.
Felhívta a figyelmet arra, hogy amikor az MI által generált szöveget szeretnénk beépíteni a saját munkánkba, azt előtte le kell ellenőrizni. – Nagyon tud segíteni az MI abban, hogy új ötletet, inspirációt, vagy nagyon gyorsan elérhető dokumentumokat találjunk, viszont nem szabad megbízni benne, mert a statisztikai módszerei miatt „hallucinál". Nem kérhető számon, hogy miért adott ki nem valós eredményt.
Ha az ember nem néz utána az adott eredménynek, akkor a saját karrierjére végzetes hibát is elkövethet, ezért hangsúlyozni és tanítani is kell, hogy nem szabad egy az egyben elfogadni az MI-től kapott megoldásokat – figyelmeztetett.
Jogilag tehát nem elfogadható az, hogy „én csak a ChatGPT-re hivatkoztam a tárgyalás során”, mert a felelősséget a hivatkozó ember viseli, nem az MI, vagy az azt fejlesztő cég.
A fejlesztők felelőssége
Pató Viktória Lilla rámutatott: a fejlesztők viszont felelősségre vonhatók az adatvédelem hiánya és az adatok felhasználásának átláthatatlansága miatt, erre jó példa a ChatGPT ideiglenes olaszországi betiltása, amikor több millió előfizető adatai kerültek nyilvánosságra. Az adat, azaz a legkisebb információ egység, a digitalizáció tápanyaga, amit el lehet lopni birtokosának tudomása nélkül. A felelősség ezért megállapítható azt illetően, hogy milyen módon kezelik a felhasználói adatokat, mennyire felel meg a szabályozásoknak, például Európában a GDPR-nak – tájékoztatott. Hozzátette: a ChatGPT-t fejlesztő OpenAI cég azonban amerikai székhelyű, és ilyenkor merül fel az a kérdés, hogy van-e olyan globális szabályozó, ami ezeket az adatvédelmi incidenseket vagy felelősségre vonhatósági eljárásokat meghatározza.
Ha az európai piacról a meg nem felelés miatt kitiltanák a szolgáltatást, akkor a kontinens versenyhátrányba kerülne a liberálisabb szabályozású amerikai piachoz képest, ezért szükséges a piacok közti együttműködés – fejtette ki a szakértő.
Emlékeztetett: az OpenAI végül úgy kezdhetett újra működni Olaszországban, hogy nyilvánosságra hozta az addig még csak nem is létező adatvédelmi szabályzatát, illetve kiírta azt, hogy mi az ő felelőssége és mi nem, érintve többek között a kiskorúak beazonosíthatóságára vonatkozó tudnivalókat.