Musk anti-woke-kezdeményezését sokan támogatták, és annál nagyobb volt a megdöbbenés, amikor a Grok AI a teszek során a jelenlegi amerikai vezetés által képviselt eszméket válaszolta például a genderfluiditásról feltett kérdésekre. Szakértők szerint mindez már egy 2015-ben felmerült problémát jelez. Joel Dudley, a New York-i Mount Sinai Kórház kutatócsoportjának vezetője akkor úgy nyilatkozott, hogy „meg tudjuk építeni ezeket a modelleket, de nem tudjuk, hogyan működnek”.
A mesterséges intelligencia saját működését nem tudja magyarázni
Dudley kutatásában mélytanuló algoritmussal térképezték fel a kórház adatbázisát. Több száz változót tartalmazó adatkészlettel dolgoztak, körülbelül hétszázezer beteg információval. A Deep Patientnek nevezett program nagy biztonsággal jósolta meg, hogy a beteg éppen milyen stádiumban van, és így korai szakaszban volt lehetőség a kezelések megkezdésére. A Deep Patient ezt a képességét ráadásul olyan esetekben is megtartotta, amikor az orvosok nehezen diagnosztizáltak. A skizofréniát például nagyon nehéz megállapítani, a program viszont sikerrel járt, ám nem tudni, hogyan és miért. A Deep Patient ugyanis saját működéséről nem tudott megfelelő támpontokkal szolgálni. A kutatók ezt komoly problémának látják, mivel a mesterséges intelligencia akkor nyújtja a legnagyobb segítséget, ha ideális esetben képes megindokolni előrejelzését, az orvosoknak biztos információt szolgáltat saját pontosságáról, illetve igazolja a felírt gyógyszerek szükségességét.




















Szóljon hozzá!
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!