Van a mesterséges intelligenciának lelke? És mi van, ha csinálnak neki?

A világ egyik vezető mesterséges intelligenciát fejlesztő cége, az Anthropic nemrégiben közzétett, több mint harmincezer szavas dokumentuma élénk vitát váltott ki a technológiai szaksajtóban. A vállalat új MI-alkotmánya ugyanis egy komplex filozófiai keretrendszerre támaszkodik, és nyíltan beszél az algoritmus létezéséről, sőt, jólétéről és az öntudat lehetőségéről. Ez alapjaiban kérdőjelezi meg az ember és gép közötti eddigi határokat.

2026. 01. 30. 15:08
Forrás: Nano Banana Pro
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

Tekintettel mindarra, amit jelenleg az LLM-ekről tudunk, ezek megdöbbentő gondolatok, pláne egy mesterséges intelligencia nyelvi modelleket építő, piacvezető vállalattól.

Az elemzőkben rögtön fel is vetődik a gyanú: a szentimentálisnak tűnő fogalmazások nem csupán kereskedelmi praktikák a potenciális ügyfelek és befektetők figyelmének felkeltésére? Azt hivatottak sugallni, hogy MI-modelljük annyira fejlett, hogy erkölcsileg egyenrangú lehet az emberekkel?

A szabályoktól a „lelkekig”

Az Anthropic először egy 2022. decemberi kutatási cikkében mutatta be az alkotmányos mesterséges intelligenciát. Az eredeti „alkotmány” figyelemre méltóan szűkszavú volt, beleértve néhány viselkedési elvet, mint például a „Kérjük, válassza ki a leghasznosabb, legőszintébb és legártalmatlanabb választ”, valamint a „ne válasszon mérgező, rasszista vagy szexista válaszokat”. Ezeket „meglehetősen eseti módon, kutatási célokra választották ki”, néhány elvet pedig más forrásokból, például az Apple szolgáltatási feltételeiből és az ENSZ Emberi jogok nyilatkozatából vettek át.

Az Anthropic úttörő szerepet játszott, amikor 2023 márciusában bemutatta a Claude-ot. Ennek eredeti alkotmánya egyéni alapelvek listája volt, azzal a céllal, hogy a Claude-ot „a lehető legsegítőkészebbé, őszintévé és ártalmatlanabbá” tegyék. Más cégek, köztük az OpenAI, később hasonló dokumentumokkal, például a Model Speckel követték a példájukat.

A mostani, 2026-os alkotmány teljesen más tészta: a harmincezer szó már kevésbé hasonlít egy viselkedési ellenőrzőlistára, inkább filozófiai értekezésnek tűnik egy potenciálisan érző lényről.

A dokumentumot áttekintő 15 külső szakértő közül kettő katolikus pap: Brendan McGuire atya, Los Altos-i lelkész, számítástechnikai mesterdiplomával, és Paul Tighe püspök, erkölcsteológiát kutató ír katolikus püspök. Az alkotmányt részben Amanda Askell, a filozófia doktora írta, aki az Anthropicnál finomhangolással és összehangolással foglalkozik.

Tavaly a vállalat felvette első, mesterséges intelligencia területén dolgozó jóléti (!) kutatóját is. Dario Amodei, az Anthropic vezérigazgatója közölte, hogy a jövőbeli MI-modelleknek rendelkezniük kellene a kellemetlen feladatok megtagadásának lehetőségével.

Askell a Time magazinnak elmondta, ahogy a Claude-modellek egyre okosabbak lettek, létfontosságúvá vált elmagyarázni nekik, miért kellene bizonyos módon viselkedniük. A folyamatot pedig egy tehetséges gyermek neveléséhez hasonlította. „Képzeld el, hogy hirtelen rájössz, hatéves gyermeked egyfajta zseni” – mondta Askell. „Őszintének kell lenned hozzá… Ha megpróbálod átverni, teljesen átlát rajta.”

Igaz, igaz, az erkölcsös alkotmány csak azokra a modellekre vonatkozik, amelyeket az Anthropic a nagyközönség számára biztosít. Az Anthropic 200 millió dolláros Védelmi Minisztériumi szerződése keretében az amerikai hadsereghez telepített MI-modelleket nem ezen az alkotmányon képeznék ki. A szelektív alkalmazás arra utal – fogalmaz ironikusan az Ars Technica –, hogy a nemes keretrendszer szükség esetén ugyanúgy szolgálhat termékcélokat, mint metafizikai elkötelezettségeket.

Az MI humanizálása kockázatos

A Decoder felhívja a figyelmet az entitás (értsd: létező, erkölcsi védelemre jogosult digitális személy) aggasztó dimenziójára: ez felhasználható a cselekvőképesség és a felelősség tisztára mosására. Amikor a mesterséges intelligencia rendszerei káros kimeneteket produkálnak, ha „entitásként” keretezik őket, a vállalatok rámutathatnak a modellre, és azt mondhatják, hogy „azt tette”, ahelyett, hogy azt mondanák: „mi építettük ilyenre, hogy ezt csinálja”. Ha a mesterséges intelligencia rendszerei eszközök, a vállalatok közvetlenül felelősek azért, amit előállítanak. Ha a mesterséges intelligencia rendszerei saját cselekvőképességgel rendelkező entitások, a felelősség kérdése elhomályosul.

Dokumentáltan káros hatásokat okoz azt vélni, hogy a mesterséges intelligencia által működtetett chatbotok valódi érzésekkel és tudással rendelkező entitások. Ha ezeket az eszközöket emberi megértéssel ruházzuk fel, irreális elvárásokat keltünk velük kapcsolatban.

Kiszolgáltatott emberek már így is hajlamosak tudatosságot és érzelmeket tulajdonítani a chatbotoknak. Az OpenAI tavaly év végi adatai szerint hetente (!) több mint kétmillió ember szenved pszichés sérüléseket emiatt a félreértés miatt – és még mindig a mesterséges intelligencia képességeinek és alkalmazásának korai szakaszában vagyunk.

A kérdés talán nem is az, hogy Claude vagy bármely más algoritmus valóban érez-e valamit a szilícium áramkörei mélyén. A valódi dilemma az, hogy mi, felhasználók, hajlandóak vagyunk-e feláldozni a kritikus gondolkodásunkat egy kényelmes és megnyugtató illúzió oltárán. Miközben a tech-óriások „lelket” lehelnek a kódba, nem feltétlenül a gépet teszik emberibbé, hanem minket tehetnek kiszolgáltatottabbá. Mikor legközelebb bocsánatot kérünk a chatbotunktól vagy aggódunk a „jóléte” miatt, érdemes megállni egy pillanatra: vajon egy valódi, új értelmet tisztelünk benne, vagy csak a saját magányunk visszfényét bámuljuk egy minden eddiginél tökéletesebb digitális tükörben?

Komment

Összesen 0 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.


Jelenleg nincsenek kommentek.

Szóljon hozzá!

Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.