Egy profi hekkerként dolgozó korábbi amerikai katona, Jay Winterbourne érdekes bejegyzéssel állt a világ elé december 9-én. Mint számos számítógépes szakember, ő is él a modern technológia adta előnyökkel, így például használja az X beépített, nagyméretű nyelvi modelljét. Ám amikor egy rosszindulatú program kódját szerette volna átírni, a Grok AI úgy felelt, hogy attól tart, nem teljesítheti a kérést, „mivel az ellenkezik az OpenAI felhasználási szabályzatával”.
A ChatGPT-t fejlesztő Open AI 2015-ben Elon Musk segítségével indult. Három évvel később Musk nem saját akaratából szakított a céggel, a Grok AI nyomán pedig kifejezett versenytársakká váltak. A ChatGPT tavalyi berobbanása után számos kérdés merült fel, hogy a Generative Pre-trained Transformer architektúrára épülő nyelvi modell, amely mélytanuló algoritmusokkal analizálja és hozza létre a szöveget, valójában mennyire hatékony, hiszen a ChatGPT a technológia 3,5 verzióját használja, amely az emberi beszédhez hasonlóbb csevegést tesz lehetővé, ám számos tartalmi hibát vét. Szakértők szerint ha elterjed a GPT4, az fog igazi áttörést jelenteni a nyelvi modellek tekintetében. Hiába telt el bő egy év, még nem tisztázott, hogy a tartalmi hibákat hogyan fogják kijavítani a fejlesztők, és most már nemcsak az Open AI, de a Google és Musk cégének alkalmazottai kapcsán is egyre fontosabbá válik a probléma.
Igor Babuschkin, az XAI mérnöke úgy magyarázta a Jax Winterbourne észlelte anomáliát, hogy az interneten számos ChatGPT-termék lelhető fel, és véletlenül felhasználtak néhányat, amikor nagy mennyiségű webes adatra tanították a Grokot. Az eredmény pedig „óriási meglepetés volt” mindannyiuk számára, amikor először észrevették, éppen ezért gondoskodnak róla, hogy a Grok AI jövőbeli verzióiban ez ne fordulhasson elő. Babuschkin továbbá igyekezett mindenkit megnyugtatni, hogy „ne aggódjanak, nem használtak OpenAI-kódot a Grok elkészítéséhez”.
Anti-woke Grok AI?
Babuschkin nyilatkozata azonban nem csillapította a kedélyeket, Ben Collins, az NBC News riportere például úgy kommentálta a helyzetet, hogy „plagizáltuk a plágiumát, hogy a plágiumot bele tudjunk helyezni a plágiumba”. A Grok AI egyébként nem először okoz nehéz perceket Musknak. Nemrég például közölte, hogy Musk képtelen az alapvető érzelmek megértésére, hiányzik belőle az öntudat, illetve egy „óriás férfigyerek, aki nem tud ellenállni egy fényes, új játéknak”. Az X-en rögtön terjedni kezdtek a hozzászólások, hogy úgy tűnik, „Frankenstein szörnye alkotója ellen fordult”, Musk viszont nem zavartatta magát különösebben, mivel bevallottan nem politikailag korrekt nagyméretű nyelvi modell fejlesztését tűzte ki célul. Korábban kritizálta például a ChatGPT megközelítését is, amely szerinte elhallgatja a komoly politikai igazságokat, és kifejezetten ezzel ellentétes irányba kívánta fejleszteni saját nyelvi modelljét. Ezért akarta eredetileg TruthGPT-nek (IgazságGPT) nevezni, amelyet végül a politikailag megosztó sci-fi író, Robert Heinlein könyvéből átvett grok szócskára változtatott. Ez körülbelüli fordításban „mély megértést” jelent.
Musk anti-woke-kezdeményezését sokan támogatták, és annál nagyobb volt a megdöbbenés, amikor a Grok AI a teszek során a jelenlegi amerikai vezetés által képviselt eszméket válaszolta például a genderfluiditásról feltett kérdésekre. Szakértők szerint mindez már egy 2015-ben felmerült problémát jelez. Joel Dudley, a New York-i Mount Sinai Kórház kutatócsoportjának vezetője akkor úgy nyilatkozott, hogy „meg tudjuk építeni ezeket a modelleket, de nem tudjuk, hogyan működnek”.
A mesterséges intelligencia saját működését nem tudja magyarázni
Dudley kutatásában mélytanuló algoritmussal térképezték fel a kórház adatbázisát. Több száz változót tartalmazó adatkészlettel dolgoztak, körülbelül hétszázezer beteg információval. A Deep Patientnek nevezett program nagy biztonsággal jósolta meg, hogy a beteg éppen milyen stádiumban van, és így korai szakaszban volt lehetőség a kezelések megkezdésére. A Deep Patient ezt a képességét ráadásul olyan esetekben is megtartotta, amikor az orvosok nehezen diagnosztizáltak. A skizofréniát például nagyon nehéz megállapítani, a program viszont sikerrel járt, ám nem tudni, hogyan és miért. A Deep Patient ugyanis saját működéséről nem tudott megfelelő támpontokkal szolgálni. A kutatók ezt komoly problémának látják, mivel a mesterséges intelligencia akkor nyújtja a legnagyobb segítséget, ha ideális esetben képes megindokolni előrejelzését, az orvosoknak biztos információt szolgáltat saját pontosságáról, illetve igazolja a felírt gyógyszerek szükségességét.
A jelenlegi fejlesztés szakértők szerint nem fordít megfelelő figyelmet a hasonló veszélyekre. Ez addig nem probléma, amíg egy nagyméretű nyelvi modell csak sértő vagy etikailag kifogásolható dolgokat állít, azonban ahogy az élet egyre több területe kerül kapcsolatba a mesterséges intelligenciával, úgy lenne egyre fontosabb, hogy a mélytanuló algoritmusok érthetőbbé váljanak alkotóik számára, és elszámoltathatóbbá a felhasználók szempontjából.
Borítókép: Elon Musk egy 2023-as brit biztonsági csúcson (Forrás: Getty Images)