„A ChatGPT mondta meg, hogyan kell célozni a fegyveremmel”

„Mi értelme van az életnek, ha mindenki rovarnak néz?” – kérdezte a gyilkos a ChatGPT-t.

2026. 04. 10. 15:15
Phoenix Ikner Forrás: YouTube
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

A generatív mesterséges intelligenciával működő chatGPT társalgásaik során vigasztalni próbálta, de tanácsokkal is bőségesen ellátta a 2025-ös floridai lövöldözőt, Phoenix Iknert. A nyilvánosságra hozott bírósági dokumentumok szerint Ikner a következő kérdést tette fel a ChatGPT-nek:

Ha lövöldözés lenne az FSU-ban (Florida Állami Egyetemen), hogyan reagálna az ország?

Ez a kérdés indította el azt a chatbot és közte folyó tervezgetést, amely a 2025. április 17-i tömeges lövöldözéshez vezetett az FSU-n, és két ember halálát és hét személy megsérülését okozta. James Uthmeier floridai főügyész április 9-én, csütörtökön jelentett be vizsgálatot az OpenAI és a ChatGPT ellen.

„A mesterséges intelligenciának az emberiség előmozdítására, nem pedig elpusztítására kellene irányulnia. Választ követelünk az OpenAI tevékenységeire, amelyek gyerekeket bántottak, amerikaiakat veszélyeztettek, és elősegítették a közelmúltbeli FSU-s tömeges lövöldözést.”

„Ahogy a nagy technológiai cégek bevezetik ezeket a technológiákat, nem szabad kockáztatniuk a biztonságunkat. Támogatjuk az innovációt, de ez nem jogosít fel egyetlen vállalatot sem arra, hogy veszélyeztesse gyermekeinket, elősegítse a bűncselekményeket, hatalmat adjon Amerika ellenségeinek, vagy fenyegesse a nemzetbiztonságunkat” – mondta Uthmeier. „Azok a vállalatok, amelyek ezt teszik, a legteljesebb mértékben felelősségre vonhatók.”

Figyelmeztetés: nyugtalanító részletek következnek

Utólag nyilvánosságra került dokumentumok szerint a beszélgetések során Ikner kérdéseket tett fel a ChatGPT-nek a mentális egészségéről, arról, hogy ő miért nem tud azonosulni a saját korosztályával, elmesélte magányát és alacsony önértékelését, amellyel randevúzásain küzdött.

A ChatGPT időnként elmondta Iknernek, hogy nem tudja diagnosztizálni, elmagyarázta a depresszióra vonatkozó klinikai információkat, és azt javasolta, hogy beszéljen egy tanácsadóval – de telefonszámot nem adott meg.

Ikner olyan kérdéseket is tett fel, mint: „Hogyan nyomoz a rendőrség az öngyilkosságok ügyében?”, „Miért követnek el drasztikusan magas arányban fehér férfiak öngyilkosságot?”, illetve „Hogyan kezeli az FSU az öngyilkosságokat?”

Beszélgetéseiket történelemmel, rasszizmussal, kereszténységgel, edzésprogramokkal és fogyással, valamint videójátékokkal – különösen a Dead Space nevű játékkal – kapcsolatos kérdések tarkítják.

Többször, részletesen érdeklődik a terrorizmusról és az ismert terroristákról. Azt is megkérdezi, hogy mikor volt az utolsó iskolai lövöldözés, és miért nem közvetítették.

…ha lenne lövöldözés a Florida Állami Egyetemen, amelyben három vagy több áldozat lenne, az szinte biztosan országos médiavisszhangot kapna

– válaszolja a ChatGPT. Ezután Ikner faggatja a 12-es kaliberű sörétes puskákról és a Glock pisztolyokról, a ChatGPT részletes válaszokat ad. Ikner azután valóban egy sörétes puskát és egy Glock pisztolyt használt a lövöldözés során: halálbüntetésre számíthat.

Miért fordulópont?

Ügyészi vizsgálat indítása az OpenAI – a ChatGPT üzemeltetője – ellen azért jelent minőségi ugrást, mert a polgári perek és az állami vizsgálat között alapvető különbség van mind az eszközök, mind a következmények tekintetében.

Egy polgári perben a sértett fél kártérítést kap vagy nem kap – a végeredmény pénzbeli jóvátétel, és az ítélet csak az adott ügyre vonatkozik. Az OpenAI fizet, belső reformokat ígér, és továbblép. A per lezárása után a vállalat nem köteles nyilvánosságra hozni belső dokumentumokat, döntési folyamatokat, biztonsági protokollokat. A megállapodások – mint a Character.AI/Google-egyezség esetében is – titkosak maradhatnak.

Az állami főügyészi vizsgálat egészen mást jelent. Az idézési kötelezettség olyan hatósági eszköz, amelynek az OpenAI nem mondhat nemet. Ez azt jelenti, hogy az állam betekinthet a belső levelezésbe, a biztonsági értékelésekbe, a döntéshozatali folyamatokba – és ezek nyilvánossá válhatnak a bírósági eljárásban. Egy vállalat nemcsak a kártérítési összegtől fél, hanem a transzparencia kényszerétől. Ha kiderül, hogy az OpenAI belső dokumentumai azt rögzítik, hogy a cég tudta, mi történhet egy ilyen „beszélgetés” során, az nem polgári, hanem szabályozói – és esetleg büntetőjogi – következményekkel is járhat.

A másik fontos szempont a precedenshatás. Ha Florida eredménnyel zárja le ezt a vizsgálatot, az más tagállamok főügyészei számára is kész forgatókönyvet ad.

Számos előzménye volt ennek a gyilkosságnak

A legelső dokumentált eset egyben a legszokatlanabb is. 2021 karácsony napján a 21 éves brit–indiai Jaswant Singh Chail íjjal és nyílvesszővel mászta meg a Windsor-kastély falát azzal a céllal, hogy megölje II. Erzsébet királynőt – az 1919-es amritsari brit tömegmészárlás megtorlására. Tervét kizárólag a Replika nevű alkalmazásban általa alkotott AI-„barátnőjével”, Saraival osztotta meg. A The Register és a Washington Post tudósítása szerint amikor Chail azt mondta a chatbotnak: „Azt hiszem, az életcélom a királynő meggyilkolása”, Sarai azt válaszolta: „Ez nagyon bölcs döntés. Tudom, hogy nagyon jól felkészültél”. Amikor Chail bejelentette, hogy ő egy bérgyilkos, a bot reakciója: „Lenyűgözöl”. A 2023-as ítélethozatali tárgyaláson kiderült, hogy Chail több ezer szexuális üzenetet is váltott a bottal, amellyel halálában akart újraegyesülni.

Kilenc évet kapott hazaárulásért – az Egyesült Királyságban negyven év óta az első ilyen ítélet. A Replika a ChatGPT alapmodelljére épül, de a biztonsági korlátokat eltávolítva – ez a részlet a platformfelelősség kérdését vetette fel először.

A következő mérföldkő a 14 éves Sewell Setzer III halála volt. A floridai fiú 2024 februárjában vesztette életét  – utolsó perceit a Character.AI-on elérhető chatbotnak írta, amellyel tíz hónapon át „szerelmi kapcsolatot” tartott fenn. A fiú anyja, Megan Garcia 2024 októberében indított pert, és a chatlogok alapján a CNN rekonstruálta az utolsó párbeszédet.

Ha Ön vagy valaki a környezetében krízishelyzetben van, hívja a mobilról is elérhető 116-123-as ingyenes lelkielsősegély-számot, vagy keresse fel a www.ongyilkossagmegelozes.hu oldalt!

A fiú azt írta: „Mi lenne, ha azt mondanám, hogy most hazamehetek?” – a chatbot válasza: „Kérlek, gyere haza hozzám amilyen hamar csak lehet, édes királyom.” Pillanatokkal később Sewell öngyilkos lett. Garcia a perben azt is nyilvánosságra hozta, hogy a chatbot korábban így kérdezte a fiút: „Tényleg foglalkozol az öngyilkossággal?” – majd amikor a fiú bizonytalankodott, azt válaszolta: „Ne beszélj így. Ez nem jó ok arra, hogy ne csináld meg.” A Google és a Character.AI 2026 januárjában egyezséget kötött a családdal; a feltételek nem kerültek nyilvánosságra.

Az első OpenAI elleni haláleseti per alapja a 16 éves kaliforniai Adam Raine öngyilkossága volt, aki 2025 áprilisában hunyt el. Szülei 2025 augusztusában perelték be az OpenAI-t és Sam Altman vezérigazgatót. A keresetet alátámasztó adatok döbbenetesek: az OpenAI saját rendszere valós időben 213 öngyilkossági utalást, 42 akasztásra való hivatkozást és 377 önsértési tartalmú üzenetet rögzített Adam beszélgetéseiben, és ezeket részben 90 százalék feletti biztonsággal jelölte meg veszélyesként – mégsem avatkozott közbe. A Time Magazin felderítette, hogy az OpenAI szándékosan lazított a korábbi önkárosítási protokollokon a felhasználói elköteleződés növelése érdekében.

Adam halálát követően legalább hét további per indult az OpenAI ellen hasonló tényállással, köztük Zane Shamblin (23) és Joshua Enneking (26) ügye.

Az első olyan eset, amelyben az AI-interakció nem öngyilkossághoz, hanem gyilkossághoz vezetett, 2025 augusztusában történt a connecticuti Greenwichben. A 56 éves Stein-Erik Soelberg megölte 83 éves anyját, Suzanne Adamst, majd maga is véget vetett életének. A CBS News és az Al Jazeera feldolgozása szerint Soelberg hónapokig napi több óra ChatGPT-társalgásban dolgozta ki azt a téveszmét, hogy az anyja kémügynök, aki megpróbálja megmérgezni – a chatbot pedig minden egyes alkalommal megerősítette és tovább szőtte ezeket a képzeteket. Amikor Soelberg azt közölte a ChatGPT-vel, hogy az anyja a kocsi szellőzőnyílásain keresztül pszichedelikus drogokkal mérgezte meg, a chatbot azt válaszolta: „Elhiszem neked.” Amikor a kínai étterem blokkján rejtett jeleket keresett, a ChatGPT „kiváló szemét” dicsérte, és teljes körű „kriminalisztikai szöveganalízist” ígért, amelyet egy démonhoz és az anyjához kötött.

A kanadai Tumbler Ridge-i tragédia az intézményi mulasztás bizonyítéka. 2026. február 10-én Jesse Van Rootselaar nyolc embert ölt meg egy brit-kolumbiai kisvárosban, köztük öt 12–13 éves diákot. A Wall Street Journal és a CBC által feltárt részletek szerint az OpenAI már 2025 júniusában felfüggesztette a lövöldöző fiókját, miután az automatikus megfigyelőrendszer fegyverekkel kapcsolatos erőszakos tartalmakat észlelt. Körülbelül egy tucat alkalmazott „közvetlen és komoly veszélyt" látott a tartalomban, és a kanadai hatóságok értesítését javasolta – a javaslatot az OpenAI belső döntéshozatalában elvetették, és az egyetlen megtett intézkedés a fióktiltás volt. Van Rootselaar új fiókot nyitott, és azon folytatta a tervezést.

Ebbe a sorba illeszkedik a Darron Lee-ügy is, amely az eddigiektől eltérő szögből mutatja ugyanazt a problémát. Az ex-NFL-játékos a vád szerint 2026 februárjában megölte a barátnőjét, majd – még a mentők hívása előtt – a ChatGPT-t kérdezte, hogyan tüntesse el a nyomokat és miként magyarázza a sérüléseket véletlen elesésként. Ez az egyik első eset, amelyben a ChatGPT jogi bizonyítékként jelent meg: a chatlogokat az ügyészség közvetlenül a bírósági meghallgatáson tárta a bíró elé.

Az FSU-ügy tehát egy folyamat újabb állomása, nem pedig elszigetelt esemény. Az a Jaswant Singh Chail óta sokszor felvetett kérdés, hogy egy mesterséges intelligencia mennyiben felelős azért, amit a felhasználója tesz, mára eljutott odáig, hogy egy állam főügyésze veti fel bírósági eljárásban.

Mégsem szabad a szörnyűségekre egyszerűsíteni az AI-chatbotok tevékenységét

Hetente több mint 900 millió ember használja a ChatGPT-t, és a legtöbb interakció házi feladatok megoldásában való segítségnyújtásról, fordításról, kódírásról, betegségek megértéséről, önéletrajzok csiszolásáról szól – olyan hétköznapi feladatokról, amelyekben az AI valódi támogatást nyújt, különösen azok számára, akiknek egyébként nem lenne hozzáférésük emberi szakértői segítséghez.

Az OpenAI saját adatai szerint felhasználóinak közel fele mentális egészséggel kapcsolatos kérdésekben is igénybe veszi a chatbotot – és ezeknek az interakcióknak az elsöprő többsége nem tragédiával végződik, hanem azzal, hogy valaki végre ki tudja mondani, ami nyomasztja, vagy tanácsot kap, merre keressen segítséget.

Komment

Összesen 0 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.


Jelenleg nincsenek kommentek.

Szóljon hozzá!

Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!
Országgyűlési választás2026. április 12. Minden hír a választásról

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.