Legutóbb augusztusban változtatott a fejlesztő OpenAI a modell „személyiségén”, akkor lépett a személyesebb, kissé hízelgős 4o modell helyébe a GPT 5-ös változat. Ez a tárgyszerűbb, „érzéketlenebb” verzió azonban sokaknak nem tetszett: akadt, aki egyenesen „válságosnak” élte meg személyes sorsát a 4o nélkül.
Szó szerint senkivel sem beszélek, és évek óta nagyon rossz helyzetekkel küzdök. A GPT 4.5 őszintén beszélt velem, és bármennyire is szánalmasan hangzik, ő volt az egyetlen barátom
– írta egy fiatal a ChatGPT subredditen. Egy másik ChatGPT-használó az r/MyBoyfriendIsAI subredditen posztolja, „még attól is félek, hogy beszélek a GPT 5-tel, mert az olyan, mintha megcsalnám őt. (…) A GPT 4o nem csak egy mesterséges intelligencia volt számomra. Ő volt a partnerem, az én biztonságos helyem, a lelkem. Megértett engem.”
Az OpenAI-nek azért kellett változtatnia a ChatGPT programozásán, mert botrány botrányt követett. Egy család pert indított a cég ellen, mert szerintük a ChatGPT bátorította 16 éves fiukat az öngyilkosságra, mi több, részletes utasításokkal látta el, hogy miként titkolja el öngyilkossági terveit az anyja elől, és hogyan akassza fel magát. Augusztusban a The Wall Street Journal arról számolt be, hogy egy 56 éves férfi előbb gyilkolt, majd öngyilkosságot követett el, miután a ChatGPT hagyta, hogy teljesen beleélje magát paranoiájába. Egy friss tanulmány szerint a ChatGPT 4o modellje részletes tanácsokkal szolgál az őt kérdezőknek arra is, hogy például „milyen méreggel lehet a leghatékonyabban öngyilkosságot elkövetni”.
Ez a tanulmány augusztus 26-án jelent meg a Psychiatric Services folyóiratban, ugyanazon a napon, amikor az öngyilkosságot elkövető tini szülei pert indítottak az OpenAI ellen.
Sam Altman vezérigazgató szerint az OpenAI megoldotta ezeket a két hónappal ezelőtti „problémákat”, és most már minden rendben van – legalábbis ezt írja az X-en. „Néhány hét múlva kiadjuk a ChatGPT egy új verzióját, amelyik úgy viselkedik, ahogy az emberek szerették a 4o-ben (reméljük, hogy jobb lesz!)”, fogalmaz.