Hetente százezrek mutatnak mentális zavarra utaló jeleket a ChatGPT-nek

A ChatGPT heti több mint 800 millió aktív felhasználójából több mint egymillióan beszélgetnek a mesterséges intelligenciával olyan érzékeny kérdésekről, mint az öngyilkosság vagy az önkárosítás. A cég álláspontja szerint ez nem is olyan rossz szám.

2025. 10. 28. 13:31
Forrás: Shutterstock
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

Az OpenAI, a ChatGPT fejlesztője közzétette, milyen gyakran tapasztal a ChatGPT mentális egészségügyi problémákat a felhasználókkal folytatott csevegések során. Jól érzékelhetően azt akarta láttatni-igazolni a cég, hogy az ilyen beszélgetések a teljes használatnak milyen kis százalékát teszik csak ki. Adataik szerint az aktív felhasználók 18 milliárd csevegést folytatnak hetente a ChatGPT-vel, és ennek 0,01 százaléka, azaz 1,8 millió eset mutat pszichózisra, vagy mániára utaló jeleket.

A vállalatóriás az utóbbi hónapoban 170 klinikailag képzett mentálhigiénés szakembert foglalkoztatott, hogy kitanítsák a mesterséges intelligenciát, miként tudja pontosabban, gyorsabban felismerni, ha a felhasználó szorong. Hogyan  kell próbálnia megnyugtatni, és szükség esetén szakmai ellátáshoz irányítani a rászorulókat.

Az OpenAI szerint hetente a világ népességének 10%-a használja a ChatGPT-t.

A ChatGPT legutóbbi modellfrissítésén a következő területekre összpontosítottak:

1. Mentális egészségügyi problémák, beleértve a pszichózist és a mániát
2. Önkárosítás és öngyilkosság
3. Érzelmi függőség a mesterséges intelligenciától

A vállalat „az öngyilkosságra és önkárosításra vonatkozó, régóta fennálló biztonsági mutatók mellett az érzelmi függőséget és a nem öngyilkossági jellegű mentális egészségügyi vészhelyzeteket is hozzáadja a jövőbeli MI-modellek standard tesztjeihez”.

Ezzel az új MI-modellel működik már alapértelmezetten a ChatGPT.

A mentális egészségügyi tünetek és a stressz univerzálisan jelen vannak az emberi társadalomban, fejti ki az OpenAI, és

ahogy a felhasználói bázis nő, a ChatGPT-vel folytatott beszélgetések egyre gyakrabban magukba foglalják ezeket az állapotokat.

De értékelésük szerint ritkák a biztonsági aggályokat felvető mentális egészségügyi problémák, a pszichózis, a mánia, az öngyilkosságra készülés jeleit mutató beszélgetések.

Pedig számos tragédia előzte meg ezt a fejlesztést. Mielőtt az OpenAI elkezdett dolgozni a védőkorlátokon, megesett, hogy a mesterséges intelligencia válaszai tragikus következményekhez vezettek. Egy tragikusan elhalálozott 16 éves tinédzser szülei például beperelték a céget, mert kiderült, gyerekük tanácsot kért és kapott a ChatGPT-től, hogy sikeres öngyilkossághoz miként kössön hurkot.

Ha Ön vagy valaki a környezetében krízishelyzetben van, hívja a mobilról is elérhető 116-123-as ingyenes lelkielsősegély-számot, vagy keresse fel az ongyilkossagmegelozes.hu oldalt!

A vállalat elutasítja a vádat, de talán nem véletlen, hogy a drámai esemény nyomán jelentettek be új, szigorúbb korlátokat a csevegésben a kiskorú felhasználóknak. Egyidejűleg lazítanak a felnőtt felhasználók kedvéért, és erotikus szolgáltatást indítanak.

Kritikusai szerint a chatbotok számos funkciója növeli az emberek érzelmi kötődését, függőségét a mesterséges intelligenciához.

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.