AI predviđanje zločina moglo bi optužiti pogrešne ljude

Sadržaj:

AI predviđanje zločina moglo bi optužiti pogrešne ljude
AI predviđanje zločina moglo bi optužiti pogrešne ljude
Anonim

Ključni podaci za van

  • Softverska tvrtka navodno prikuplja informacije o društvenim medijima kako bi stvorila profile koji se mogu koristiti za identifikaciju ljudi koji predstavljaju sigurnosni rizik.
  • Voyager Labs sklopio je značajan ugovor s japanskom vladinom agencijom.
  • Ali stručnjaci upozoravaju da se softver za predviđanje umjetne inteligencije može prevariti.
Image
Image

Vaši mrežni podaci mogu se koristiti za predviđanje hoćete li počiniti zločin.

Voyager Labs navodno prikuplja informacije o društvenim medijima kako bi stvorio profile koji se mogu koristiti za identifikaciju ljudi koji predstavljaju sigurnosni rizik. To je dio rastućih napora da se umjetna inteligencija (AI) koristi za istraživanje potencijalnih kriminalaca. Ali neki stručnjaci kažu da je pokret prepun potencijalnih problema.

"Vrlo je teško predvidjeti ljudsko ponašanje," Matthew Carr, sigurnosni istraživač u Atumcell Group, rekao je Lifewireu u intervjuu e-poštom. "Nismo u stanju predvidjeti čak ni vlastito ponašanje, a kamoli tuđe. Mislim da je moguće da bi se umjetna inteligencija mogla koristiti u budućnosti u tu svrhu, ali daleko smo od toga da to sada možemo učiniti."

Izrada profila

Kao što je The Guardian nedavno izvijestio, policija Los Angelesa istraživala je korištenje Voyager Lab softvera za predviđanje zločina. Tvrtka je također objavila da je sklopila značajan ugovor s japanskom vladinom agencijom.

Japanski sporazum pruža vladinoj agenciji platformu za istraživanje temeljenu na umjetnoj inteligenciji koja analizira goleme količine informacija iz bilo kojeg izvora, uključujući otvorene i duboke podatke.

"Drago mi je što surađujemo u borbi protiv terorizma i kriminala," rekla je Divya Khangarot, direktorica APAC-a u Voyager Labsu, u priopćenju za javnost. "Koristeći vrhunska obavještajna rješenja Voyager Laba, naši klijenti dobivaju jedinstvene sposobnosti za proaktivno prepoznavanje i ometanje potencijalnih prijetnji. Donosimo dodatne slojeve dubokih istražnih uvida korištenjem kombinacije AI, strojnog učenja i OSINT-a za otkrivanje skrivenih tragova, prekršenih informacija, i loši glumci."

Niste tako pametni?

Ali u intervjuu e-poštom, Matt Heisie, suosnivač Ferret.ai, koji također koristi AI za predviđanje prijestupnika, bacio je sumnju na neke od tvrdnji Voyager Labsa.

"Postoji li tako jasna veza između, recimo, dosjea o uhićenju i budućeg kriminalnog ponašanja kao što postoji crna točka na testu i razvoj tumora?" On je rekao. "Razmislite o svim potencijalnim nedoumicama koje su došle do tog uhićenja - u kojem je susjedstvu osoba živjela, količini i kvaliteti, čak i pristranosti, policije u tom području. Dob osobe, njen spol, njen fizički izgled, sve to ima isprepletene utjecaje na vjerojatnost da ta osoba ima dosje o uhićenju, potpuno odvojeno od njihove stvarne sklonosti da počine zločin koji pokušavamo predvidjeti."

Vjerojatnije je da će optuženici s boljim odvjetnicima moći spriječiti da zapisi postanu javno dostupni, rekla je Heisie. Neke jurisdikcije ograničavaju objavljivanje fotografija ili zapisa o uhićenju kako bi se zaštitio optuženi.

"Računalo će učiti na temelju podataka koje mu date i uključiti sve predrasude koje su ušle u to prikupljanje podataka…"

"Sve ovo dodaje dodatnu pristranost algoritmima", dodao je. "Računalo će učiti na temelju podataka koje mu date i uključiti sve predrasude koje su ušle u to prikupljanje podataka u učenje i interpretaciju."

Bilo je nekoliko pokušaja da se stvori umjetna inteligencija koja predviđa kriminal, a rezultati su često bili skandalozni, rekao je Heisie.

COMPAS, algoritam koji policija koristi za predviđanje ponavljanja kaznenog djela, često se koristi pri određivanju kazne i jamčevine. Suočio se sa skandalom koji seže do 2016. zbog rasne pristranosti, predviđajući da crni optuženici predstavljaju veći rizik od recidivizma nego što su zapravo predstavljali, i obrnuto za bijele optuženike.

Preko 1000 tehnologa i znanstvenika, uključujući akademike i stručnjake za umjetnu inteligenciju s Harvarda, MIT-a, Googlea i Microsofta, izjasnilo se 2020. protiv rada u kojem se tvrdi da su istraživači razvili algoritam koji može predvidjeti kriminal isključivo na temelju lice osobe, rekavši da objavljivanje takvih studija pojačava već postojeće rasne predrasude u sustavu kaznenog pravosuđa, primijetio je Heisie.

Image
Image

Kina je najveće i najbrže rastuće tržište za ovu vrstu tehnologije, prvenstveno zbog raširenog pristupa privatnim podacima, s više od 200 milijuna nadzornih kamera i naprednim istraživanjem umjetne inteligencije usredotočenim na ovo pitanje dugi niz godina, rekao je Heisie. Sustavi kao što je CloudWalkov Police Cloud sada se koriste za predviđanje i praćenje kriminalaca i određivanje policijskih snaga.

"Međutim, i tamo su prijavljene značajne pristranosti, " rekla je Heisie.

Heisie je dodao da njegova tvrtka pažljivo čuva podatke koji ulaze i ne koristi snimke krađe ili zapisnike o uhićenjima, "fokusirajući se umjesto toga na objektivnije kriterije."

"Naš AI učio je iz odabranih podataka, ali što je još važnije, također uči od ljudi koji sami analiziraju, njeguju i procjenjuju zapise te nam govore o svojim interakcijama s drugima", dodao je. "Također održavamo potpunu transparentnost i besplatan i javni pristup našoj aplikaciji (što je brže moguće da ih pustimo u beta verziju) i dobrodošao nam je uvid u naše procese i procedure."

Preporučeni: