Dr. Will Caster mesterséges intelligencia kutató arra törekszik, hogy olyan gépet építsen, ami öntudattal rendelkezik, amiért, akik ezt ellenzik, célba veszik, és egy előadása után lelövik. Nem hal meg azonnal Caster, aki elhatározza, hogy emlékeit a szuperszámítógépbe táplálja – röviden erről szól a Johnny Depp főszereplésével, 2014-ben filmvászonra vitt Transzcendens amerikai film.
2024-ben a Mesterséges Intelligencia (MI) alapú eljárások képesek olyan összetett feladatok elvégzésére, melyek korábban elképzelhetetlenek voltak emberi közreműködés nélkül. Azonban ahogy a döntések egyre nagyobb hányada MI alapú eljárásokon múlik, úgy erősödik a társadalmak e technológiával szembeni kiszolgáltatottsága, félelme, s kritikája. Az MI megállíthatatlannak tűnő terjedésével -, aminek felfüggesztésére szólítottak fel olyan ismert személyek, mint Steve Wozniak, az Apple társalapítója és Yuval Noah Harari transzhumanista történész – az EU is idejekorán el kezdett foglalkozni, mert korunk egyik legnagyobb kihívását jelenti, mind gazdasági, mind szabályozási szempontból.
Mára az élet szinte minden területén alkalmazzák a mesterséges intelligenciát, például
- MI-alapú diagnosztikai eszközök segítenek a gyógyászatban a daganatos betegségek felismerésében, de az MI-re támaszkodnak a bankok a hitelkérelmek kiértékelésében, vagy az ügyfeleik kockázatának megállapításában.
- A szociális ellátórendszerek is kikérik az MI segítségét, amikor döntenek a kérelmezőről, hogy jogosult-e vagy sem állami ellátásra és szolgáltatásra.
- A bűnüldöző hatóságok előrejelzéseket készítenek az MI által a hatékonyabb fellépés érdekében, de ugyanígy használják az MI-t a közlekedésben a biztonságosabb haladás megtervezéséért.
Az EU Bizottsága 2020-ban közzétette az MI-ról szóló Fehér Könyvet, amely az MI fejlesztéseinek és alkalmazásainak uniós szintű egyedi szabályozására szolgál. Rögzítik benne, hogy mivel az MI beláthatatlan hatást gyakorol társadalmunkra, szükséges, hogy a világunkat döntően újraíró technológia, alapvető jogokon és értékeken alapuljon, mely figyelembe veszi az emberi méltóság és a magánélet védelmét.
Az MI-rendszerek alkalmazásából eredő kritika elsősorban három kulcsfontosságú kihívásra irányul – összegzi az Európai Jog szakfolyóirat: 1) az MI-re jellemző gépi tanulásból és önálló működésből következik az átláthatóság, az elszámoltathatóság és a kiszámíthatóság hiánya; 2) az MI által vezérelt téves, elfogult vagy diszkriminatív döntéshozatal veszélye; 3) az MI-rendszerek alapvető emberi szabadságjogokra és a demokratikus intézmények működésére gyakorolt negatív hatása.
Emberközpontú MI technika
Hogy lehet-e emberközpontú MI technikáról a valóságban beszélni arról megoszlanak az álláspontok.
Az Élet Jövője Intézet (The Future of Life Institute) nevében – (mely agytrösztöt a londoni székhelyű Founders Pledge csoport és a Szilícium-völgyi Közösségi Alapítvány finanszírozza) – 2023 késő tavaszán több száz tudós, például Yuval Noah Harari és ismert techguru, többek között Elon Musk, kezdeményezte az MI hat hónapra történő felfüggesztését, ráirányítva a figyelmet az MI modellek fejlesztésében folyó versenyzés kockázataira. Az önfoglalkoztatás és a téves információk növekedése az MI technológiákkal kapcsolatos két fő aggodalmuk, amelyet nyílt levelükben hangsúlyoztak. Kiemelték:
„Csak akkor legyenek erős mesterségesintelligencia-rendszerek, ha biztosak vagyunk abban, hogy a hatás pozitív lesz, és a kockázatok kezelhetők lesznek.”
És a GPT 4-nek és a hasonló MI megoldásoknak „nyilvánosnak és ellenőrizhetőnek” kell lenniük, különben fennáll annak a veszélye, hogy az emberek szuperszámítógépek háziállataivá válnak – fűzte hozzá vészjóslóan a futurisztikus előrejelzéseket nem megvető Musk.
De mit mond maga a ChatGPT az emberközpontú mesterséges intelligenciáról? Röviden azt, hogy az „MI fejlesztése és alkalmazása során az emberi szükségletekre, élményekre és értékekre összpontosítanak”, amit négy aspektusból nézve ki is fejt – tegyük máris hozzá, hogy lexikonszerű pontossággal.
- „Felhasználói élmény”, ami azt jelenti, hogy az emberek az MI-technológiák segítségével könnyen és hatékonyan tudjanak kommunikálni és feladatokat elvégezni.
- „Az emberi képességek támogatása”: eszerint az MI-rendszerek emberi érzelmeket vagy nyelvi kifejezéseket értelmeznek, segítik az emberi kommunikációt.
- „Biztonság és adatvédelem”, ahol az MI prioritásként kezeli a felhasználói adatok biztonságát és a magánéletétet.
- „Társadalmi és etikai szempontok”, vagyis az MI-technológiák ne okozzanak diszkriminációt.
Európai MI-stratégia
Az EU Bizottság még 2018 tavaszán tette közzé első átfogó európai MI-stratégiáját, részben a fentebb leírtak betartatása céljából. A dokumentum továbbá kiterjedt az EU technológiai és ipari kapacitásának megerősítésére, valamint a társadalomban és gazdaságban zajló változások felkészülésére is. Az MI-szabályozásával kapcsolatos uniós törekvések 2019-ben kaptak nagyobb nyilvánosságot, amikor Ursula von der Leyen újonnan megválasztott bizottsági elnök a 2024-ig szóló Ambiciózusabb Unió című programot felvázolta.
Egy évvel később a Fehér Könyv konkrét szakpolitikai alternatívákat fogalmazott meg, hogy miként lehet a technológiai gyakorlatot összehangolni a bizalmi ökoszisztémával (biztonságos alkalmazási környezet). És válaszul erre bevezették a magas kockázatú MI-rendszerek fogalmát, ami például az energiaszektorban, a határellenőrzésnél, az igazságszolgáltatásban érvényesül, ahol tehát a rizikó lehetősége jelentős.
Az irányelvek tisztázását követően a rendelettervezet hosszas megvitatása következett, melyben az EU korlátozásokat fogalmazott meg az MI-rendszerekre vonatkozóan. Legfontosabbak közülük, hogy az Unióban forgalomba hozott és használt MI-programok biztonságosak legyenek, és tiszteletben tartsák az alapvető emberi, illetve elfogadott uniós jogokat. Erre nézve kategóriákat állítottak fel, hogy mikre kell különösen odafigyelni, és ha szükséges, akkor korlátozni. A tiltott kategóriába eső MI-rendszerek közé tartoznak többek között az arcfelismerő programok közterületen, a tudatalatti manipuláció, a tömeges megfigyelés vagy a Kínában használthoz hasonló társadalmi pontrendszer jogellenességének rögzítése is.
A rendelet tartalmaz olyan előírást is, miszerint az MI-nek tájékoztatnia kell az embert, hogy MI-vel áll szemben, ez különösen kockázatos lehet akkor, ha az érzelmek felismerésére képes rendszerekkel találkozunk. Megkülönböztetnek nagy kockázatú MI-rendszert is, ilyennek minősül:
- az MI-vel történő foglalkoztatás,
- a munkavállalók irányítása és
- az önfoglalkoztatáshoz való hozzáférés, különösen személyek felvétele és kiválasztása, az előléptetéssel és felmentéssel kapcsolatos döntések meghozatala. (A világ első átfogó MI-törvényéről bővebben az EU Parlament oldalán olvashat.)
A példákból kitűnik, az MI mindenhol jelen van.
A kritikusok az Unió gyengeségéül róhatják fel azt, hogy túl sokat foglalkozik az emberközpontú megközelítéssel, másként túl bürokratikus, és emiatt versenyhátrányba kerül olyan hatalmakkal szemben, ahol nem vagy kevésbé fontos az emberi jogok tiszteletben tartása. Az Unió igyekszik az európai általános politikai értékek keretei között saját előnyére fordítani a mesterséges intelligencia technológia előnyeit, és kiszűrni annak hátrányait.
Az alapkérdés tehát az, hogy az MI maga a cél, vagy az mit és kinek az érdekeit szolgálja. Az emberi jólét növelését? Vagy a politikát, mely a történelem során talán még sohasem kapott ilyen erős eszközt (netalántán halálos fegyvert) a kezébe arra, hogy polgárairól adatokat gyűjtsön, megfigyelje, kontrollolja és manipulálja őket.
Ez nem a jövő kutatókat érdeklő kérdés már. Most az ember és az MI is élesben vizsgázik.
(Felhasznált szaklapok: Európai Jog, In Medias Res)