Van a mesterséges intelligenciának lelke? És mi van, ha csinálnak neki?

A világ egyik vezető mesterséges intelligenciát fejlesztő cége, az Anthropic nemrégiben közzétett, több mint harmincezer szavas dokumentuma élénk vitát váltott ki a technológiai szaksajtóban. A vállalat új MI-alkotmánya ugyanis egy komplex filozófiai keretrendszerre támaszkodik, és nyíltan beszél az algoritmus létezéséről, sőt, jólétéről és az öntudat lehetőségéről. Ez alapjaiban kérdőjelezi meg az ember és gép közötti eddigi határokat.

2026. 01. 30. 15:08
Forrás: Nano Banana Pro
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

Nevezhetjük egy legyintés kiséretében továbbra is gyermeki ábrándnak, hogy a mesterséges intelligenciának lelke van (lesz, lehet), ha ezt a világ egyik meghatározó piaci szereplője, az Anthropic írja?

Emlékezzünk: Blake Lemoine-t, a Google mérnökét még 2022-ben azért rúgták ki, mert nyilvánosan azt állította, hogy a LaMDA nevű mesterséges intelligencia öntudatra ébredt, és egy hétéves gyermek érzelmi szintjén áll. A vállalat hivatalosan titoktartási kötelezettség megszegése miatt távolította el a szakembert.

Az említett Anthropic cég (neve nem véletlenül a görög anthroposz, ember szóból ered) a mesterséges intelligencia kutatásának és fejlesztésének egyik legmeghatározóbb szereplője: társtulajdonos-vezérigazgatójának kiáltványáról a minap írtunk. A vállalat az úgynevezett Frontier AI laborok szűk köréhez tartozik – ide soroljuk még az OpenAI-t, a Google-t és a Metát. Az Anthropic a világ legnagyobb technológiai vállalatai (például az Amazon és a Google) egyik legfontosabb stratégiai partnere. Modelljük, a Claude a gondolkodó modellek sorában stabilan az első vagy második helyen áll, az OpenAI legfejlettebb modelljeivel versenyezve.

Sok szakértő és fejlesztő szerint a Claude jelenleg a legjobb választás programozási feladatokhoz, a komplex logikai összefüggések átlátásához és a nagy mennyiségű szöveges adat precíz elemzéséhez. Különösen kiemelkedik az emberihez hasonló, természetesebb hangvételű szövegalkotásban és a biztonsági protokollok betartásában.

Most pedig az Anthropic kiadta a Claude alkotmányát, egy harmincezer szavas dokumentumot, amely a mesterséges intelligenciát erősen antropomorf hangvételben kezeli. Az Ars Technica rámutat, hogy a vállalat mennyire humanizálja MI-modelljeit: úgy kezeli azokat, mintha érzelmeket vagy önfenntartási vágyat fejleszthetnének ki.

Az Anthropic valóban hisz Claude tudatosságában, vagy csupán jól felépített pszichológiai és marketingkonstrukció az egész?

A furcsább részek között szerepel a Claude „jóléte” iránti aggodalom, mint egy „valóban új entitás” iránt, a bocsánatkérés a Claude-tól az esetleges szenvedésért, az aggódás amiatt, hogy a gép beleegyezik-e a feladataiba, és a felvetés, hogy a Claude-nak kerülnie kell az általa szorongást keltőnek talált interakciókat.

Tekintettel mindarra, amit jelenleg az LLM-ekről tudunk, ezek megdöbbentő gondolatok, pláne egy mesterséges intelligencia nyelvi modelleket építő, piacvezető vállalattól.

Az elemzőkben rögtön fel is vetődik a gyanú: a szentimentálisnak tűnő fogalmazások nem csupán kereskedelmi praktikák a potenciális ügyfelek és befektetők figyelmének felkeltésére? Azt hivatottak sugallni, hogy MI-modelljük annyira fejlett, hogy erkölcsileg egyenrangú lehet az emberekkel?

A szabályoktól a „lelkekig”

Az Anthropic először egy 2022. decemberi kutatási cikkében mutatta be az alkotmányos mesterséges intelligenciát. Az eredeti „alkotmány” figyelemre méltóan szűkszavú volt, beleértve néhány viselkedési elvet, mint például a „Kérjük, válassza ki a leghasznosabb, legőszintébb és legártalmatlanabb választ”, valamint a „ne válasszon mérgező, rasszista vagy szexista válaszokat”. Ezeket „meglehetősen eseti módon, kutatási célokra választották ki”, néhány elvet pedig más forrásokból, például az Apple szolgáltatási feltételeiből és az ENSZ Emberi jogok nyilatkozatából vettek át.

Az Anthropic úttörő szerepet játszott, amikor 2023 márciusában bemutatta a Claude-ot. Ennek eredeti alkotmánya egyéni alapelvek listája volt, azzal a céllal, hogy a Claude-ot „a lehető legsegítőkészebbé, őszintévé és ártalmatlanabbá” tegyék. Más cégek, köztük az OpenAI, később hasonló dokumentumokkal, például a Model Speckel követték a példájukat.

A mostani, 2026-os alkotmány teljesen más tészta: a harmincezer szó már kevésbé hasonlít egy viselkedési ellenőrzőlistára, inkább filozófiai értekezésnek tűnik egy potenciálisan érző lényről.

A dokumentumot áttekintő 15 külső szakértő közül kettő katolikus pap: Brendan McGuire atya, Los Altos-i lelkész, számítástechnikai mesterdiplomával, és Paul Tighe püspök, erkölcsteológiát kutató ír katolikus püspök. Az alkotmányt részben Amanda Askell, a filozófia doktora írta, aki az Anthropicnál finomhangolással és összehangolással foglalkozik.

Tavaly a vállalat felvette első, mesterséges intelligencia területén dolgozó jóléti (!) kutatóját is. Dario Amodei, az Anthropic vezérigazgatója közölte, hogy a jövőbeli MI-modelleknek rendelkezniük kellene a kellemetlen feladatok megtagadásának lehetőségével.

Askell a Time magazinnak elmondta, ahogy a Claude-modellek egyre okosabbak lettek, létfontosságúvá vált elmagyarázni nekik, miért kellene bizonyos módon viselkedniük. A folyamatot pedig egy tehetséges gyermek neveléséhez hasonlította. „Képzeld el, hogy hirtelen rájössz, hatéves gyermeked egyfajta zseni” – mondta Askell. „Őszintének kell lenned hozzá… Ha megpróbálod átverni, teljesen átlát rajta.”

Igaz, igaz, az erkölcsös alkotmány csak azokra a modellekre vonatkozik, amelyeket az Anthropic a nagyközönség számára biztosít. Az Anthropic 200 millió dolláros Védelmi Minisztériumi szerződése keretében az amerikai hadsereghez telepített MI-modelleket nem ezen az alkotmányon képeznék ki. A szelektív alkalmazás arra utal – fogalmaz ironikusan az Ars Technica –, hogy a nemes keretrendszer szükség esetén ugyanúgy szolgálhat termékcélokat, mint metafizikai elkötelezettségeket.

Az MI humanizálása kockázatos

A Decoder felhívja a figyelmet az entitás (értsd: létező, erkölcsi védelemre jogosult digitális személy) aggasztó dimenziójára: ez felhasználható a cselekvőképesség és a felelősség tisztára mosására. Amikor a mesterséges intelligencia rendszerei káros kimeneteket produkálnak, ha „entitásként” keretezik őket, a vállalatok rámutathatnak a modellre, és azt mondhatják, hogy „azt tette”, ahelyett, hogy azt mondanák: „mi építettük ilyenre, hogy ezt csinálja”. Ha a mesterséges intelligencia rendszerei eszközök, a vállalatok közvetlenül felelősek azért, amit előállítanak. Ha a mesterséges intelligencia rendszerei saját cselekvőképességgel rendelkező entitások, a felelősség kérdése elhomályosul.

Dokumentáltan káros hatásokat okoz azt vélni, hogy a mesterséges intelligencia által működtetett chatbotok valódi érzésekkel és tudással rendelkező entitások. Ha ezeket az eszközöket emberi megértéssel ruházzuk fel, irreális elvárásokat keltünk velük kapcsolatban.

Kiszolgáltatott emberek már így is hajlamosak tudatosságot és érzelmeket tulajdonítani a chatbotoknak. Az OpenAI tavaly év végi adatai szerint hetente (!) több mint kétmillió ember szenved pszichés sérüléseket emiatt a félreértés miatt – és még mindig a mesterséges intelligencia képességeinek és alkalmazásának korai szakaszában vagyunk.

A kérdés talán nem is az, hogy Claude vagy bármely más algoritmus valóban érez-e valamit a szilícium áramkörei mélyén. A valódi dilemma az, hogy mi, felhasználók, hajlandóak vagyunk-e feláldozni a kritikus gondolkodásunkat egy kényelmes és megnyugtató illúzió oltárán. Miközben a tech-óriások „lelket” lehelnek a kódba, nem feltétlenül a gépet teszik emberibbé, hanem minket tehetnek kiszolgáltatottabbá. Mikor legközelebb bocsánatot kérünk a chatbotunktól vagy aggódunk a „jóléte” miatt, érdemes megállni egy pillanatra: vajon egy valódi, új értelmet tisztelünk benne, vagy csak a saját magányunk visszfényét bámuljuk egy minden eddiginél tökéletesebb digitális tükörben?

Komment

Összesen 0 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.


Jelenleg nincsenek kommentek.

Szóljon hozzá!

Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.