Bár az OECD irányadó mesterséges intelligencia alapelvei hangsúlyozzák az emberi cselekvőképességet és felügyeletet, az átláthatóságot és az elszámoltathatóságot a mesterségesintelligencia-rendszerek alapvető követelményeiként, a globális piaci trendek mégis azt sugallják, hogy a biztonsági fékek és etikai védőkorlátok gyakran fellazulnak, mivel a vállalatok és a nemzetek versenyezni kénytelenek a dominanciáért a mesterséges intelligenciapiacon.
A valóság vége: manipuláció ipari méretekben
A mesterséges intelligencia segítségével töredékére csökkent a nagyon realisztikus – de teljesen hamis – tartalmak előállításának költsége. Bár ezek időnként szórakoztatóak, egyre komolyabb, demokráciákat veszélyeztető fegyverré válnak, amikor hatásos képeket, hanganyagokat és videókat használnak az emberek döntéseinek befolyásolására.
A deep fake technológiát magas színvonalon alkalmazzák csalásra, személyes adatokkal való visszaélésre és félretájékoztatásra.
Az átverések „ipari méretekben” zajlanak, és bárki, nem csak szakértők tudnak kiváló minőségű hamis tartalmat előállítani.
Kézzelfoghatóvá vált
Az ABC News arról számol be, hogy MI-generált mélyhamis hirdetések cukorbetegeket és orvosokat vernek át, csalók mesterséges intelligencia által generált „orvosi videókat” használnak káros táplálékkiegészítők és rossz egészségügyi tanácsok terjesztésére – ami közegészségügyi kockázatot jelent.
A Pew Research szerint sokan aggódnak az adatokkal való visszaélés, a személyes adatok felhasználása és a mesterségesintelligencia-rendszerekkel kapcsolatos adatvesztések miatt.
Ez a szorongás nem korlátozódik a kormányzati megfigyelésre; tükrözi a vállalati adatkezelési gyakorlatokkal, a profilalkotással, a célzott meggyőzéssel és az emberek és intézmények közötti információs aszimmetriával kapcsolatos aggodalmat is.




















Szóljon hozzá!
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!