Mivel a gépi tanulási algoritmusokat, a Big Data módszereket és a mesterséges intelligenciát egyre inkább használják az amerikai bűnüldöző szervek eszköztárában, sokan amiatt aggódnak, hogy a büntető igazságszolgáltatási rendszer meglévő elfogultságait egyszerűen automatizálják.
A rendőrség egyre inkább támaszkodik a prediktív algoritmusokra, hogy kitalálják, hol vessék be az erőiket azáltal, hogy a városokat emberi alapú és számítógépes felügyeleti technológiával látják el, beleértve, de nem kizárólagosan az adatbányászatot, az arcfelismerést és a prediktív rendőrségi programokat.
És mindez történik az ilyen eszközök hibája ellenére. Az arcfelismerő szoftver gyakran elfogultabb a sötétebb bőrű egyénekkel, miközben például összekeveri a kongresszus tagjait a bűncselekmények gyanúsítottaival.
A faji profilozást lényegében automatizálták, miközben a bűnüldöző szervek azt állítják, hogy a számítógépek fajfüggetlen eszközök. (1)
Los Angeles megyében például mind a 47 rendőri szerv csatlakozott az NEC Corporation által fenntartott biometrikus rendszerhez, amely azt állítja, hogy képes 15 millió állampolgárt beépíteni az arcfelismerő platformjába, ami nagy lendületet ad a technológia széles körű alkalmazásához, beleértve a zártláncú kamerákat, a Stingray telefonkövetőket és a földrengés-előrejelző szoftvert, amely történelmi adatok alapján azonosítja az állítólagos bűncselekmények “helyszíneit“.
Most pedig az MIT Technology Review új jelentése szerint a tárgyalótermekben egyre inkább támaszkodnak a büntető kockázatértékelési algoritmusokra.
A fogvatartottak esetében például becslést adnak arról, hogy mennyire valószínű, hogy az elkövető újra bűncselekményt követ el.
A probléma ugyanakkor az, hogy a történelmi bűnügyi adatokra támaszkodva a bűnüldözés által korábban megcélzott közösségek – mint például az alacsony jövedelműek és a nemzeti, etnikai vagy vallási kisebbségek – veszélyeztetettek, mivel az algoritmusok magasabb kockázati pontszámokat adnak számukra.
“Ennek eredményeként az algoritmus felerősítheti és megtarthatja a beágyazott torzításokat, és még több torz adatot generálhat, ami egy ördögi kört táplál,“
– mondta Karen Hao, a tanulmány szerzője megjegyezve, hogy a kockázatértékelési algoritmusok sajátos jellege lehetetlenné teszi az elszámolhatóságot. (2)
Egy olyan korban, amikor az adatipar teljes mértékben finanszírozott, a Big Data-vezérelt rendőrség jövedelmező üzletté vált. És míg a gazdasági szakadék a szegény közösségek és a felső egy százalék között egyre bővül, az iskolák alulfinanszírozottak és az egészségügyi ellátás egyre kevésbé hozzáférhető a szegények számára, miközben a tömeges megfigyeléssel foglalkozó ipar és a magánbörtön iparág hatalmasat profitál az adófizetők pénzén. (3)
(1) – https://www.aclu.org/blog/privacy-technology/
(2) – https://www.technologyreview.com/s/612775/
(3) – https://www.activistpost.com/2019/01/artificial
NÉZZ SZÉT A KATEGORIZÁL TÉMAKÖREINK CIKKEI KÖZÖTT:
ELTITKOLT VILÁG | AKTUÁLIS HÍREK | Közélet | Járvány | Nagyvilág | Nemzeti | NeoLiberális | VeszélyZóna | Diktatúra | Bevándorlás | Rasszizmus | Érdekességek | Eltitkolva | Videók | Teljes adások