Cikkünkben a KCG Partners és a JÖSz szakkollégium által létrehozott Studia Pragmatica tudásközpont szakértőinek segítségével járjuk körbe a mesterséges intelligencia szabályozásával kapcsolatos aktuális adatvédelmi kérdéseket.
Próbaként a fentiekről megkérdeztük a témában a legfőbb érintett, a ChatGPT véleményét, „aki" bár önmagát károkozásra képtelennek, egyénekre és társadalomra kockázat nélkülinek tartja. Kérdésünkre ugyanakkor maga is hangsúlyozta annak fontosságát, hogy saját maga, valamint más MI-rendszerek fejlesztői és üzemeltetői biztosítsák, hogy megfeleljenek a jogszabályok rendelkezéseinek, különösen az átláthatóság, az elszámoltathatóság és az adatvédelem tekintetében.
Adatvédelmi aggályok
Az április 27-én tartott szavazáson az Európai Parlament képviselői ideiglenes politikai megállapodásra jutottak a Mesterséges Intelligencia Rendelet Európai Bizottság által két évvel ezelőtt benyújtott tervezetének módosított változatáról. A képviselőcsoportok megegyezésre jutottak a tervezet kapcsán, a rendelet szövegén már csak kisebb kiegészítések vagy technikai módosítások fordulhatnak elő. Mindazonáltal a Mesterséges Intelligencia Rendelet végleges változata a május 11-re tervezett bizottsági szavazást követő, a plenáris ülésen történő ratifikáció függvényében legkorábban 2023 júniusában várható.
A tervezet 85. cikke rendelkezik a hatálybalépésről, ami az Európai Unió Hivatalos Lapjában történő majdani közzétételt követő 20. napra tehető, míg a rendelet alkalmazandóvá válása a hatálybalépést követő 24 hónap elteltével, vagyis legkorábban 2025 nyarán várható (egyes rendelkezések, például a bírságokkal kapcsolatos szabályok azonban már a hatályba lépéstől számított 12 hónap után, 2024-ben alkalmazandóvá válhatnak a tervezet jelenlegi szövege szerint).
A ChatGPT elterjedésével egyre égetőbbé váltak az MI felhasználásával kapcsolatos aggályok és kockázatok, amelyek ágazati szabályozás hiányában csak a már meglévő jogszabályok rendelkezéseivel összhangban vizsgálhatóak. Ekként került sor – Európában elsőként – Olaszországban az adatvédelmi szabályokat sértő működés okán a ChatGPT felfüggesztésére, és noha az intézkedés óta az OpenAI tárgyal az olasz hatóságokkal a chatbot működésének GDPR-ral való összeegyeztetése és a szolgáltatás újra elérhetővé tétele érdekében, az olasz adatvédelmi hatóság lépését Európa-szerte hasonló hangok felcsendülése övezte.
A konkrét korlátozó intézkedés főként két okkal indokolta az olasz hivatal, a ChatGPT működése kapcsán egyrészről nem átlátható, hogy miként kerülnek felhasználásra a felhasználók személyes adatai, másrészről a felület nem biztosítja a felhasználók életkorának és a gyermek felhasználók szülői hozzájárulásának meglétének ellenőrizhetőségét, ami komoly kockázatot jelenthet a kiskorúakra.
„Az OpenAI adatvédelmi tájékoztatója több aggályt is felvet, így például a személyes adatok kezelésének pontos céljait nem határozza meg egyértelműen, így az érintettek számára nem átlátható, hogy milyen célokból, miként kerülnek felhasználásra az adataik. A jogalap meghatározásának hiánya is felvet problémákat, hiszen az alapozhatja meg a nagyszámú személyes adat gyűjtését és tömeges tárolását a platformot működtető algoritmusok 'betanítása' céljából" – nyilatkozott a KCG Partners Ügyvédi Társulás adatvédelmi szakértő partnere, dr. Párkányi Rita.
„A GDPR alapelvként rögzíti az átláthatóság, tisztesség és elszámoltathatóság követelményét, amely elveknek a mesterséges intelligencia rendszereknek is meg kell felelnie, ennek hiánya ugyanis a ChatGPT-hez hasonló nyitott mesterséges intelligenciák széles körű felhasználhatóságuk okán komoly aggályokra adhatnak okot. Tekintetbe véve, hogy átláthatatlan a mesterséges intelligencia gépi tanulásának működése, a felhasználó sosem lehet biztos abban, hogy a rendelkezésre bocsátott adatait az MI-rendszer miként kezeli, és milyen logika áll az automatizált döntéshozatali folyamatok mögött, vagyis, hogy az adatok pontosan hol kerülnek felhasználásra" – tette hozzá.
Amiként arra a francia nemzeti adatvédelmi hatóság, a CNIL szintén rámutatott, a GDPR elvei közül az adatminimalizálás, a célhoz kötöttség és az adatok pontosságának elve szintén megkövetelendő MI-rendszerektől. Nem hagyható figyelmen kívül az sem, hogy a GDPR alapján az érinetteknek biztosítani kell a MI-rendszerek által feldolgozott személyes adataikhoz való hozzáférés és ellenőrzés lehetőségét. Az átláthatóság és elszámoltathatóság fontosságát a spanyol nemzeti adatvédelmi hatóság szintén hangsúlyozta, kiemelve a tájékoztatás fontosságát.
„A GDPR szabályozásában alapvető éllel érvényesül a beépített és alapértelmezett adatvédelem elve, így a fejlesztőknek célszerű volna már az MI-rendszerek tervezésekor szem előtt tartani az adatvédelmi és egyéb szabályoknak való megfelelést, hogy a mesterséges intelligencia programozásába beépülve automatizmusként érvényesülhessenek a jogszabályok, ekként biztosítva az azoknak való megfelelést és az egyének jogainak védelmét" – tette hozzá dr. Párkányi Rita.
A nemzeti hatóságok tehát Európa-szerte felfigyeltek a ChatGPT által megjelenített kockázatokra, amelyet az Európai Adatvédelmi Testület is megerősített, április 13-án közzétett sajtóközleményük szerint az EDPB egy ChatGPT munkacsoportot is felállított a kérdés vizsgálatára. Péterfalvi Attila, a Nemzeti Adatvédelmi és Információszabadság Hatóság elnöke megerősítette, hogy a munkacsoport munkájában a NAIH is részt vesz, figyelmen kísérve a szabályozással kapcsolatos szakmai vita állását. Az elnök ugyanakkor rámutatott arra, hogy önmagában a GDPR alapján a mesterséges intelligencia és a ChatGPT használata nem tiltható meg, érintett által kezdeményezett panasz alapján indult eljárás hiányában Magyarországon nem várható a chatbot felfüggesztése.
Uniós MI Rendelet
Az adatvédelmi kérdéseken túlgyűrűző aggályokat is felvet ugyanakkor a mesterséges intelligencia használata: az MI-rendszerek hamis információk terjedésének, önkényes döntések meghozatalának és manipuláció eszközeivé válhatnak, fokozott kockázatoknak kitéve az egyéneket.
A jelenleg még elfogadás alatt álló európai MI Rendelet célja, hogy a gépi intelligencia által jelentett kockázatokkal és lehetőségekkel szemben olyan jogi keretet hozzon létre, amely biztosítja, hogy az MI fejlesztése és alkalmazása biztonságos, átlátható és elszámoltatható módon történjen.
A rendelet kockázatalapú megközelítést alkalmaz, az MI-rendszereket különböző kockázati szintekbe sorolja, az elfogadhatatlan kockázattól a minimális kockázatig. Minél magasabb a kockázat, annál szigorúbbak lesznek a rendszerek tervezésével, fejlesztésével és telepítésével kapcsolatos követelmények. A besorolás alapján elfogadhatatlan kockázatot jelentőnek ítélt rendszerek – mint például a kormányzati szociális pontozás és a valós idejű biometrikus azonosító rendszerek a közterületeken – kevés kivétellel tiltottá válnak.
A magas kockázatú mesterséges intelligencia rendszerek (például önvezető jármű, orvosi eszköz) engedélyezettek maradhatnak, de a fejlesztőknek és a felhasználóknak be kell tartaniuk a szigorú tesztelésre, az adatminőség megfelelő dokumentálására irányuló és az emberi felügyeletet részletező elszámoltathatósági keretet előíró szabályokat.
A rendeletnek való megfelelés kikényszerítése céljából létrehozásra kerül az Európai Mesterséges Intelligencia Testület, amelynek feladata a rendelet végrehajtásának felügyelete, valamint annak biztosítása, hogy az MI-rendszereket biztonságos, átlátható és elszámoltatható módon fejlesszék és használják. A rendelet emellett jelentős szankciókat ír elő azokra a vállalatokra, amelyek nem tartják be a rendelkezéseit. A GDPR rendszeréhez hasonlóan a cégek akár globális éves bevételük akár 6 százalékát elérő bírsággal is szembenézhetnek, amennyiben megsértik az MI Rendelet rendelkezéseit.
Azonban mindaddig, amíg a részletes ágazati szabályozás nem teszi lehetővé a fejlesztők számonkérését, a felhasználók a technológia körültekintő alkalmazásával védekezhetnek jogaik megóvása érdekében, ekként minimalizálva a visszaélés lehetőségét.
Hallgassa meg Érczfalvi András interjúját, aki a Monitor Délután műsorunkban a KCG Partners Ügyvédi Társulás adatvédelmi szakértő partnerével, dr. Párkányi Ritával beszélgetett!
- Monitor Délután - dr. Párkányi Rita