A mesterséges intelligencia már arról is dönthet, hogy ki kerüljön börtönbe


Mivel a gépi tanulási algoritmusokat, a Big Data módszereket és a mesterséges intelligenciát egyre inkább használják az amerikai bűnüldöző szervek eszköztárában, sokan amiatt aggódnak, hogy a büntető igazságszolgáltatási rendszer meglévő elfogultságait egyszerűen automatizálják.

A rendőrség egyre inkább támaszkodik a prediktív algoritmusokra, hogy kitalálják, hol vessék be az erőiket azáltal, hogy a városokat emberi alapú és számítógépes felügyeleti technológiával látják el, beleértve, de nem kizárólagosan az adatbányászatot, az arcfelismerést és a prediktív rendőrségi programokat.

És mindez történik az ilyen eszközök hibája ellenére. Az arcfelismerő szoftver gyakran elfogultabb a sötétebb bőrű egyénekkel, miközben például összekeveri a kongresszus tagjait a bűncselekmények gyanúsítottaival.

A faji profilozást lényegében automatizálták, miközben a bűnüldöző szervek azt állítják, hogy a számítógépek fajfüggetlen eszközök. (1)

Los Angeles megyében például mind a 47 rendőri szerv csatlakozott az NEC Corporation által fenntartott biometrikus rendszerhez, amely azt állítja, hogy képes 15 millió állampolgárt beépíteni az arcfelismerő platformjába, ami nagy lendületet ad a technológia széles körű alkalmazásához, beleértve a zártláncú kamerákat, a Stingray telefonkövetőket és a földrengés-előrejelző szoftvert, amely történelmi adatok alapján azonosítja az állítólagos bűncselekmények “helyszíneit“.

Most pedig az MIT Technology Review új jelentése szerint a tárgyalótermekben egyre inkább támaszkodnak a büntető kockázatértékelési algoritmusokra.

A fogvatartottak esetében például becslést adnak arról, hogy mennyire valószínű, hogy az elkövető újra bűncselekményt követ el.

A probléma ugyanakkor az, hogy a történelmi bűnügyi adatokra támaszkodva a bűnüldözés által korábban megcélzott közösségek – mint például az alacsony jövedelműek és a nemzeti, etnikai vagy vallási kisebbségek – veszélyeztetettek, mivel az algoritmusok magasabb kockázati pontszámokat adnak számukra.

Ennek eredményeként az algoritmus felerősítheti és megtarthatja a beágyazott torzításokat, és még több torz adatot generálhat, ami egy ördögi kört táplál,

– mondta Karen Hao, a tanulmány szerzője megjegyezve, hogy a kockázatértékelési algoritmusok sajátos jellege lehetetlenné teszi az elszámolhatóságot. (2)

Egy olyan korban, amikor az adatipar teljes mértékben finanszírozott, a Big Data-vezérelt rendőrség jövedelmező üzletté vált. És míg a gazdasági szakadék a szegény közösségek és a felső egy százalék között egyre bővül, az iskolák alulfinanszírozottak és az egészségügyi ellátás egyre kevésbé hozzáférhető a szegények számára, miközben a tömeges megfigyeléssel foglalkozó ipar és a magánbörtön iparág hatalmasat profitál az adófizetők pénzén. (3)

(1) – https://www.aclu.org/blog/privacy-technology/
(2) – https://www.technologyreview.com/s/612775/
(3) – https://www.activistpost.com/2019/01/artificial

Forrás : Új Világtudat


Like it? Share with your friends!

0 Comments

Az email címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöljük.

Kérjük oszd meg a cikket

Mivel a Facebook korlátozza a hírek automatikus megjelenítését, ezért arra kérünk, hogy oszd meg személyesen a cikket, ezzel jelentős mértékben segítve az oldalt hatékonyságát. Köszönjük