Lassan mindent kiderítenek rólunk

A legfejlettebb számítógépes algoritmusok ma már igen kevés információból is viszonylag nagy biztonsággal következtetni tudnak az emberek legkülönfélébb preferenciáira, sőt ennél is többre képesek: léteznek technológiák, amelyek segítségével az aktuális hangulatunk vagy éppen az egészségi állapotunk is feltérképezhető. A szakértő szerint akár már éveken belül eljuthatunk odáig, hogy — legalábbis a mesterséges intelligenciát használó cégek, intézmények számára — megszűnik a magánszféra.

Haiman Éva-Kárpáti András
2019. 10. 01. 7:20
Az okoseszközök használóinak az arcára fagyna a mosoly, ha sejtenék, hogy a gépek többet tudnak az életükről, mint a családtagjaik Fotó: Bach Máté
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

A mesterséges intelligencia (angol rövidítéssel AI) egyre elterjedtebbé válik modern világunkban, egyes területeken pedig már napjainkban is nélkülözhetetlennek minősül az emberi gondolkodás és problémamegoldás összetettségét megközelítő komputertechnológia, elég, ha csak az egészségügyre, a közlekedésre vagy a harcászatra gondolunk.

Az AI alkalmazásával kapcsolatosan ugyanakkor számos kérdés és aggály is felmerül, ezek közül a brit The Guardian a közelmúltban az emberi érzelmeket felismerni és feldolgozni képes, úgynevezett érzelemtudatos intelligens rendszerekről közölt egy igazán elgondolkoztató cikket. Az írás szerint ezt a technológiát jelenleg főképp a hirdetések hatékonyságának a felmérésére használják a nagyvállalatok, az alkalmazások elsősorban a szemmozgás, valamint a mimika elemzésével értékelik a reklámok hatását.

Az okoseszközök használóinak az arcára fagyna a mosoly, ha sejtenék, hogy a gépek többet tudnak az életükről, mint a családtagjaik
Fotó: Bach Máté

Mint írták, különböző kísérletekben összesen több száz millió önkéntes adatai állnak már rendelkezésre. Ez a szám kisebb, néhány száz vagy ezer fős kontrollcsoportokból adódik össze, reakcióikat számítógépek és a mobileszközök kameráin keresztül monitorozzák, az úgynevezett alapérzelmek szerint besorolva azokat.

Ami igazán döbbenetes, hogy tudtunkon kívül is hasonló adatgyűjtés alanyaivá válhatunk. A cikkből kiderül ugyanis, hogy a londoni ­Picadilly Circuson sétálva, az Anterósz-szobornál elhelyezett kivetítő szemlélőinek a reakcióit is egy AI rendszer figyeli és dolgozza fel.

A LandSec vállalat kameráin keresztül egyebek mellett a nézelődők koráról, neméről, kedélyállapotáról próbálnak meg következtetéseket levonni vagy megállapítani, hogy az illető szemüveges vagy ­szakállas-e. Ezeket a technológiákat már bizonyos áruházakban is alkalmazzák azért, hogy pontos vásárlói visszajelzést kapjanak például a termékelhelyezésről.

De mi történik – veti fel Brendt Mittelstadt adatetikára szakosodott filozófus – , ha az emberek megbízhatóságát akarják mérni a technológiával vagy azt, hogy nem jelentenek-e biztonsági kockázatot? – kérdezte. Ez utóbbi kapcsán pedig megemlíti az iBorderCtrl rendszert, amely jelenleg próbaüzemben működik a görög, a lett, valamint konkrétan a magyar határon, és amellyel azt próbálják kideríteni, hogy az ország területére belépni szándékozó migránsok igazat mondanak-e.

Az érzelemfelismeréssel kapcsolatosan egy The Guardian által idézett angol szaklap arra a veszélyre hívja fel a figyelmet, hogy a tévedések kockázata jelentős, hiszen például a szemöldök összeráncolása nemcsak azt jelentheti, hogy az illető mérges, hanem a fokozott összpontosítás vagy éppen a fejfájás jele is lehet. Ez pedig nagyon nem mindegy, elég csak arra gondolni, ha a repülőtéri beléptetésnél a biztonsági megfontolások felülírhatják az egyén szabadságjogait.

A mesterséges intelligencia kutatója, a Szegedi Tudományegyetem tanszékvezető egyetemi tanára, Jelasity Márk megkeresésünkre rámutatott: a fejlettebb számítógépes algoritmusok ma már igen kevés információból is viszonylag nagy biztonsággal következtetni tudnak az emberek legkülönfélébb preferenciáira, elég, ha csak arra gondolunk, hogy a Facebook, a ­Google és más alkalmazások már személyre szabva, az érdeklődési körünknek megfelelően állítják be, dobják fel a számítógépünkön vagy az okostelefonunkon megjelenő oldalakat, hirdetéseket.

Ám a legfejlettebb algoritmusok már ennél többre is képesek: léteznek technológiák, amelyek segítségével az aktuális hangulatunk vagy éppen testi-lelki állapotunk is feltérképezhető. Az előbbire például a pulzusszám alapján következtet a gép, amely a hangulatfelismerőhöz hasonlóan távolról „méri meg” a szívverésünket, míg a pszichés státusunkat akár a beszédünkből is meg tudja állapítani.

A szakértő úgy vélekedett, hogy az okoseszközök használóiról minden bizonnyal már most többet tudnak „a gépek”, mint saját családtagjaik vagy barátaik, azok ugyanis nem látnak, így nem is tudnak rólunk mindent, ellentétben az általunk használt rendszereket működtető mesterséges intelligenciával, ami előtt már most sincsenek titkaink. Szerinte néhány éven belül eljuthatunk odáig, hogy – legalábbis a mesterséges intelligenciát használó cégek, intézmények számára – megszűnik az emberek magánszférája.

A szakember szerint az új technológiákkal egy egészen új világ köszönt ránk, ami elől legfeljebb akkor térhetnénk ki, ha elhagynánk a civilizációt. Annyiféleképpen hozzá lehet jutni ugyanis az egyénekkel kapcsolatos adatokhoz, információkhoz, hogy egészen biztosan nem tudjuk az összes csatornát kiiktatni.

A modern technológiák térnyerése egyértelműen azzal az áldozattal jár, hogy a magánéletünk sérül – mondta Jelasity Márk, aki szerint a mesterséges intelligencia és a privát szféra ütközetében egyelőre nem az utóbbi áll nyerésre.

A téma legfrissebb hírei

Tovább az összes cikkhez chevron-right

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Címoldalról ajánljuk

Tovább az összes cikkhez chevron-right

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.