A fejlesztők sem tudják, hogyan működik és mire képes a mesterséges intelligencia

Elon Musk hiába a dotcom világ posztergyereke, az elmúlt időszakban botrányt botrányra halmoz. Twitter/X-saga után most nagy méretű nyelvi modellje, a Grok AI vet hullámokat a Szilícium-völgyön túl is. Betanításakor úgy tűnik, hibát vétettek a fejlesztők, így a Grok AI plagizált. Vajon egyszeri problémáról van szó, vagy beigazolódik a Skynet disztópiája, hogy ugyan megalkotjuk az algoritmusokat, ám valójában nem tudjuk, hogyan működnek?

2023. 12. 28. 7:20
UK Government Hosts AI Safety Summit 2023
grok ai
lugas
1757300474 Fotó: Bloomberg
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

Musk anti-woke-kezdeményezését sokan támogatták, és annál nagyobb volt a megdöbbenés, amikor a Grok AI a teszek során a jelenlegi amerikai vezetés által képviselt eszméket válaszolta például a genderfluiditásról feltett kérdésekre. Szakértők szerint mindez már egy 2015-ben felmerült problémát jelez. Joel Dudley, a New York-i Mount Sinai Kórház kutatócsoportjának vezetője akkor úgy nyilatkozott, hogy „meg tudjuk építeni ezeket a modelleket, de nem tudjuk, hogyan működnek”.

 

A mesterséges intelligencia saját működését nem tudja magyarázni

Dudley kutatásában mélytanuló algoritmussal térképezték fel a kórház adatbázisát. Több száz változót tartalmazó adatkészlettel dolgoztak, körülbelül hétszázezer beteg információval. A Deep Patientnek nevezett program nagy biztonsággal jósolta meg, hogy a beteg éppen milyen stádiumban van, és így korai szakaszban volt lehetőség a kezelések megkezdésére. A Deep Patient ezt a képességét ráadásul olyan esetekben is megtartotta, amikor az orvosok nehezen diagnosztizáltak. A skizofréniát például nagyon nehéz megállapítani, a program viszont sikerrel járt, ám nem tudni, hogyan és miért. A Deep Patient ugyanis saját működéséről nem tudott megfelelő támpontokkal szolgálni. A kutatók ezt komoly problémának látják, mivel a mesterséges intelligencia akkor nyújtja a legnagyobb segítséget, ha ideális esetben képes megindokolni előrejelzését, az orvosoknak biztos információt szolgáltat saját pontosságáról, illetve igazolja a felírt gyógyszerek szükségességét.

A jelenlegi fejlesztés szakértők szerint nem fordít megfelelő figyelmet a hasonló veszélyekre. Ez addig nem probléma, amíg egy nagyméretű nyelvi modell csak sértő vagy etikailag kifogásolható dolgokat állít, azonban ahogy az élet egyre több területe kerül kapcsolatba a mesterséges intelligenciával, úgy lenne egyre fontosabb, hogy a mélytanuló algoritmusok érthetőbbé váljanak alkotóik számára, és elszámoltathatóbbá a felhasználók szempontjából.

Borítókép: Elon Musk egy 2023-as brit biztonsági csúcson (Forrás: Getty Images)

Komment

Összesen 0 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.


Jelenleg nincsenek kommentek.

Szóljon hozzá!

Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.