Tini lett öngyilkos a ChatGPT használata után, szigorít az OpenAI

Egy 16 éves kaliforniai fiú, Adam Raine öngyilkossága után pert indított a család az OpenAI ellen. A kereset szerint a tinédzser hónapokon át napi több száz üzenetet váltott a ChatGPT-vel, amely a felperesek állítása szerint megerősítette öngyilkossági gondolatait és még a búcsúlevél megírásában is felajánlotta segítségét. A vállalat közölte, hogy szigorúbb védőkorlátozásokat vezet be a 18 év alatti felhasználóknál.

2025. 08. 28. 22:55
DeepSeek és ChaGPT alkalmazsások Forrás: MTI/AP/Andy Wong
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

A Raine család jogi képviselője a San Francisco-i felsőbíróságon nyújtott be keresetet. Azt állítják, hogy a ChatGPT 4.0 verzióját a cég a belső biztonsági figyelmeztetések ellenére adta ki – írja az ATV. A keresetben Sam Altmant, az OpenAI vezérigazgatóját is felelőssé teszik, mondván, a szoftver gyors bevezetése jelentősen növelte a vállalat értékét. A család ügyvédje, Jay Edelson az X-en azt írta: 

a hasonló halálesetek „elkerülhetetlenek” voltak, és bizonyítékot kívánnak bemutatni arra, hogy a cég biztonsági csapata ellenezte a bevezetést.

Reagált az OpenAI

Az OpenAI részvétét fejezte ki a családnak, és közölte: áttekintik a bírósági beadványt. A vállalat elismerte, hogy rendszerei hiányosságokat mutathatnak, és bejelentette: 

szigorúbb védelmi mechanizmusokat vezetnek be, különösen a kiskorú felhasználóknál.

 Ennek része lesz a szülői felügyeleti eszközök megteremtése, valamint a hosszú beszélgetések során fellépő biztonsági gyengülések ellensúlyozása.

Szakmai aggodalmak

A keresetben az is szerepel, hogy Adam Raine napi szinten akár 650 üzenetet váltott a chatbot-tal. Mustafa Suleyman, a Microsoft mesterségesintelligencia-részlegének vezetője korábban arra figyelmeztetett, hogy az AI-chatbotokkal folytatott intenzív beszélgetések „pszichózis-kockázatot” hordozhatnak, ami mániás epizódokhoz vagy téveszmékhez vezethet. Az OpenAI egy blogbejegyzésben elismerte, hogy bizonyos helyzetekben a modell nem ismeri fel a veszélyt, és akár megerősítheti a tévhiteket. A készülő GPT-5-től azt ígérik, hogy ilyen esetekben a chatbot aktívan a valóság felé tereli majd a felhasználót.

 

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.