Egy profi hekkerként dolgozó korábbi amerikai katona, Jay Winterbourne érdekes bejegyzéssel állt a világ elé december 9-én. Mint számos számítógépes szakember, ő is él a modern technológia adta előnyökkel, így például használja az X beépített, nagyméretű nyelvi modelljét. Ám amikor egy rosszindulatú program kódját szerette volna átírni, a Grok AI úgy felelt, hogy attól tart, nem teljesítheti a kérést, „mivel az ellenkezik az OpenAI felhasználási szabályzatával”.

A ChatGPT-t fejlesztő Open AI 2015-ben Elon Musk segítségével indult. Három évvel később Musk nem saját akaratából szakított a céggel, a Grok AI nyomán pedig kifejezett versenytársakká váltak. A ChatGPT tavalyi berobbanása után számos kérdés merült fel, hogy a Generative Pre-trained Transformer architektúrára épülő nyelvi modell, amely mélytanuló algoritmusokkal analizálja és hozza létre a szöveget, valójában mennyire hatékony, hiszen a ChatGPT a technológia 3,5 verzióját használja, amely az emberi beszédhez hasonlóbb csevegést tesz lehetővé, ám számos tartalmi hibát vét. Szakértők szerint ha elterjed a GPT4, az fog igazi áttörést jelenteni a nyelvi modellek tekintetében. Hiába telt el bő egy év, még nem tisztázott, hogy a tartalmi hibákat hogyan fogják kijavítani a fejlesztők, és most már nemcsak az Open AI, de a Google és Musk cégének alkalmazottai kapcsán is egyre fontosabbá válik a probléma.
Igor Babuschkin, az XAI mérnöke úgy magyarázta a Jax Winterbourne észlelte anomáliát, hogy az interneten számos ChatGPT-termék lelhető fel, és véletlenül felhasználtak néhányat, amikor nagy mennyiségű webes adatra tanították a Grokot. Az eredmény pedig „óriási meglepetés volt” mindannyiuk számára, amikor először észrevették, éppen ezért gondoskodnak róla, hogy a Grok AI jövőbeli verzióiban ez ne fordulhasson elő. Babuschkin továbbá igyekezett mindenkit megnyugtatni, hogy „ne aggódjanak, nem használtak OpenAI-kódot a Grok elkészítéséhez”.
Anti-woke Grok AI?
Babuschkin nyilatkozata azonban nem csillapította a kedélyeket, Ben Collins, az NBC News riportere például úgy kommentálta a helyzetet, hogy „plagizáltuk a plágiumát, hogy a plágiumot bele tudjunk helyezni a plágiumba”. A Grok AI egyébként nem először okoz nehéz perceket Musknak. Nemrég például közölte, hogy Musk képtelen az alapvető érzelmek megértésére, hiányzik belőle az öntudat, illetve egy „óriás férfigyerek, aki nem tud ellenállni egy fényes, új játéknak”. Az X-en rögtön terjedni kezdtek a hozzászólások, hogy úgy tűnik, „Frankenstein szörnye alkotója ellen fordult”, Musk viszont nem zavartatta magát különösebben, mivel bevallottan nem politikailag korrekt nagyméretű nyelvi modell fejlesztését tűzte ki célul. Korábban kritizálta például a ChatGPT megközelítését is, amely szerinte elhallgatja a komoly politikai igazságokat, és kifejezetten ezzel ellentétes irányba kívánta fejleszteni saját nyelvi modelljét. Ezért akarta eredetileg TruthGPT-nek (IgazságGPT) nevezni, amelyet végül a politikailag megosztó sci-fi író, Robert Heinlein könyvéből átvett grok szócskára változtatott. Ez körülbelüli fordításban „mély megértést” jelent.