Rasna pristranost Twitter algoritma ukazuje na veći tehnički problem

Sadržaj:

Rasna pristranost Twitter algoritma ukazuje na veći tehnički problem
Rasna pristranost Twitter algoritma ukazuje na veći tehnički problem
Anonim

Ključni podaci za van

  • Twitter se nada da će ispraviti ono što korisnici nazivaju rasnom pristranošću u svom softveru za pregled slika.
  • Poziv tehnološkog diva mogao bi biti kulturološki obračun koji industrija treba za rješavanje pitanja različitosti.
  • Nedostatak raznolikosti u tehnologiji šteti učinkovitosti njezina tehnološkog napretka.
Image
Image

Twitter je spreman pokrenuti istragu o svom algoritmu za obrezivanje slika nakon što je postao popularna tema koja je potaknula veći razgovor o pitanjima raznolikosti u tehnološkoj industriji.

Društveni mediji dospjeli su na naslovnice nakon što su korisnici otkrili očitu rasnu pristranost u njegovom algoritmu za pregled slika. Otkriće se dogodilo nakon što je korisnik Twittera Colin Madland upotrijebio platformu kako bi prozvao Zoomov neuspjeh da prepozna svoje crne kolege koji su koristili tehnologiju zelenog ekrana, ali u velikoj ironičnoj formi otkrio je da se Twitterov algoritam za izrezivanje slike ponaša slično i depriorizira crna lica.

Svakako, to je veliki problem za svaku manjinu, ali mislim da postoji i mnogo širi problem.

Drugi su se korisnici uključili u trend što je izazvalo niz viralnih tweetova koji pokazuju da algoritam dosljedno daje prednost bijelim licima i licima svjetlije puti, od ljudi do likova iz crtića, pa čak i pasa. Ovaj neuspjeh je pokazatelj većeg kulturnog pokreta u tehnološkoj industriji koji dosljedno ne uzima u obzir manjinske skupine, što se prelilo na tehničku stranu.

"Zbog toga se manjine osjećaju užasno, kao da nisu važne, a može se koristiti za druge stvari koje mogu prouzročiti ozbiljniju štetu", Erik Learned-Miller, profesor informatike na Sveučilištu iz Massachusettsa, rekao je u telefonskom intervjuu."Jednom kada odlučite za što se neki softver može koristiti i koje sve štete mogu nastati, tada počinjemo razgovarati o načinima za smanjenje mogućnosti da se to dogodi."

Kanarinci na vremenskoj crti

Twitter koristi neuronske mreže za automatsko izrezivanje slika ugrađenih u tweetove. Algoritam bi trebao detektirati lica za pregled, ali čini se da ima primjetnu pristranost bijele boje. Glasnogovornica tvrtke Liz Kelley tvitala je odgovor na sve zabrinutosti.

Kelley je tweetala, "hvala svima koji su ovo pokrenuli. Testirali smo pristranost prije slanja modela i nismo pronašli dokaze o rasnoj ili rodnoj pristranosti u našem testiranju, ali jasno je da imamo više analiza učiniti. otvorit ćemo izvorni kod našeg rada kako bi ga drugi mogli pregledati i kopirati."

Koautor bijele knjige "Tehnologije prepoznavanja lica u divljini: Poziv za savezni ured", Learned-Miller je vodeći istraživač o ekscesima softvera za učenje AI-ja temeljenog na licu. Godinama je raspravljao o potencijalnom negativnom utjecaju softvera za učenje slikama i govorio je o važnosti stvaranja stvarnosti u kojoj su te predrasude ublažene najbolje što mogu.

Mnogi algoritmi za tehnologiju prepoznavanja lica koriste referentne skupove za podatke, često poznate kao skupovi za obuku, koji su zbirka slika koje se koriste za fino podešavanje ponašanja softvera za učenje slika. U konačnici omogućuje umjetnoj inteligenciji da lako prepozna široku lepezu lica. Međutim, tim referentnim skupovima može nedostajati raznolik skup, što dovodi do problema poput onih s kojima se susreće Twitter tim.

"Svakako, to je veliki problem za svaku manjinu, ali mislim da postoji i mnogo širi problem", rekao je Learned-Miller. "To se odnosi na nedostatak raznolikosti u tehnološkom sektoru i potrebu za centraliziranom, regulatornom silom koja bi pokazala ispravnu upotrebu ove vrste moćnog softvera sklonog zlouporabi i zloporabi."

Tehnologiji nedostaje raznolikost

Twitter je možda najnovija tehnološka tvrtka na djelu, ali ovo je daleko od novog problema. Područje tehnologije i dalje je pretežno bijelo područje kojim neprestano dominiraju muškarci, a istraživači su otkrili da nedostatak raznolikosti uzrokuje ponavljanje sustavnih, povijesnih neravnoteža u razvijenom softveru.

U izvješću za 2019. AI Now instituta Sveučilišta New York, istraživači su otkrili da crnci čine manje od 6 posto radne snage u vrhunskim tehnološkim tvrtkama u zemlji. Slično tome, žene čine samo 26 posto radnika na terenu - statistika niža od njihovog udjela 1960. godine.

To čini da se manjine osjećaju užasno, kao da nisu važni, a može se koristiti za druge stvari koje mogu uzrokovati ozbiljniju štetu.

Na površini, ovi reprezentativni problemi mogu se činiti svakodnevnim, ali u praksi, prouzročena šteta može biti duboka. Istraživači u izvješću Instituta AI Now sugeriraju da je to uzročno povezano s problemima sa softverom koji često ne uzima u obzir ne-bijelu i ne-mušku populaciju. Bilo da se radi o infracrvenim dozatorima sapuna koji ne uspijevaju otkriti tamniju kožu ili Amazonovom AI softveru koji ne uspijeva razlikovati ženska lica od muških lica, neuspjeh u rješavanju različitosti u tehnološkoj industriji dovodi do neuspjeha tehnologije u suočavanju s raznolikim svijetom.

"Postoji puno ljudi koji nisu razmišljali o problemima i zapravo ne shvaćaju kako te stvari mogu uzrokovati štetu i koliko su te štete značajne", rekao je Learned-Miller o učenju AI slikama. "Nadajmo se da se taj broj ljudi smanjuje!"

Preporučeni: