A tokiói Vaak nevű startup szoftvere különbözik azoktól a hasonló programoktól, amelyek a bűnügyi nyilvántartásokban szereplő arcok beazonosítását végzik. A VaakEye az emberek viselkedését figyeli, és az alapján jelez, ha kockázatot észlel. Az M2M Zóna oldalán gifen látható, hogyan is működik a rendszer.
A vállalat alapító-vezérigazgatója, Ryo Tanaka elmondta, hogy fejlesztőcsapata az algoritmus megalkotásához 100 ezer órányi biztonsági felvétel adatait használta fel. A monitorozás a vásárlók arckifejezésétől kezdve a mozdulataikon keresztül a ruházatukig sok mindenre kiterjed.
A szoftver márciusban került a piacra, és április közepéig már 50 japán üzletben vezették be a használatát – számolt be róla a CNN Business.
A cég azt állítja, hogy a tesztelés időszakában a lopások miatti veszteségek 77%-kal csökkentek a helyi üzletekben. A program mérsékelheti a bolti lopások miatti globális kiskereskedelmi veszteségeket is, amelyek értéke a Global Shrink Index szerint 2017-ben 34 milliárd dollárt tett ki.
Etikai kérdések
A tolvajok Artificial Intelligence (AI) segítségével való elfogása ugyanakkor számos etikai kérdést vet fel. „Igaz, hogy az elsődleges cél a lopás megakadályozása, azonban jogi vagy erkölcsi szempontból elfogadható-e az, ha valakit a szoftver miatt nem engednek be egy boltba?” – vetette fel Michelle Grant, az Euromonitor kereskedelmi elemzője.
„Ennek az eldöntése nem a szoftverfejlesztő feladata. A mi feladatunk a gyanúsnak detektált viselkedésre való figyelemfelhívás. Nem mi döntjük el, hogy ki sért szabályokat, és ki nem, hanem a bolt” – mondta Ryo Tanaka. Pedig éppen emiatt aggódik a Liberty emberi jogok védelméért küzdő szervezet is, amely az Egyesült Királyságban az arcfelismerő technológia betiltásáért kampányol.
„A kiskereskedelmi környezet szereplői – tehát a magánszervezetek – rendőri funkcióhoz hasonló szerepet kezdenek el betölteni” – emelte ki Hannah Couchman, a Liberty érdekképviseleti vezetője.
A jogvédő szervezet amiatt is aggódik, hogy a mesterséges intelligencia erősítheti a diszkriminációt. A Massachusetts-i Műszaki Egyetem (MIT) és a Stanford Egyetem 2018-as tanulmánya megállapította, hogy a különböző kereskedelmi céllal használt arcfelismerő programok bőrszín és nemek alapján diszkriminálnak.
Ryo Tanaka ugyanakkor úgy véli, hogy mivel a VaakEye szoftver a viselkedést figyeli, így ilyen probléma nem merülhet fel. De Hannah Couchman továbbra is szkeptikus.
„Az algoritmusokra támaszkodó technológiák esetében – különösen az emberi viselkedés tekintetében – a diszkrimináció lehetősége mindig fenn áll. Az embereknek kell ugyanis megtanítaniuk az algoritmust, hogy mi az, ami gyanús” – tette hozzá a jogvédő.
A vásárló hozzájárulása
Az átláthatóság kérdését sem szabad kihagyni. „Az emberek tudnak-e egyáltalán arról, hogy mi folyik körülöttük? Adtak ehhez beleegyezést? Mi történik a begyűjtött adatokkal, és hogyan védik ezeket az információkat?” – sorolta a fontos adatbiztonsági kérdéseket a Liberty munkatársa.
A startup CEO-ja ezt nem is vitatja, és kiemelte, hogy mielőtt a vásárlók belépnek a boltba, tájékoztatni kell őket, hogy lehetőségük legyen a közreműködés megtagadására. „A kormányzatoknak olyan szabályokat kellene bevezetniük, amelyek kötelezővé teszik az ilyen típusú monitorozással kapcsolatos tájékoztatást: hol és mit figyelnek, illetve hogyan elemzik, és mennyi ideig használják az adatokat” – tette hozzá Ryo Tanaka.
Christopher Eastham, a Fieldfisher ügyvédi iroda AI fejlesztésekre szakosodott jogásza elmondta: jelenleg nincs olyan jogi keret, amely szabályozná a technológia használatát.
„Szükség van a jogalkotók és a szabályozó szervek egyértelmű útmutatásaira, hiszen végeredményben nekik kell majd arról dönteniük, hogy ennek a technológiának a használata milyen esetekben engedhető meg, vagy mikor szükséges a közrend fenntartása érdekében” – fejtette ki a jogi szakember.
A cikk megjelenését a Vodafone Business támogatta.