Ključni podaci za van
- YouTubeov softver za automatsko dobno ograničavanje razlog je za zabrinutost zbog LGBTQ+ sadržaja na platformi.
- Tvrtku je poremetila kontroverza u vezi s kreatorima LGBTQ+ sadržaja koji pojačavaju sumnju.
- Pristranosti u strojnom učenju daju vjerodostojnost ideji da njegova nesavršena implementacija filtara vjerojatno nepravedno ograničava pristup.
Uz povijest nepravednog ciljanja kreatora LGBTQ+ sadržaja u procesu moderiranja, YouTubeova nova tehnologija temeljena na umjetnoj inteligenciji smatra se zabrinjavajućim sljedećim korakom za tehnološkog diva.
Na službenom YouTube blogu prošli tjedan, platforma za dijeljenje videa predstavila je planove za izdavanje novog automatskog softvera za "dosljedniju primjenu dobnih ograničenja" na videozapise koji se smatraju neprikladnima za mlađe gledatelje.
Motiviran nedavnom zabrinutošću oko djece u aplikaciji, novi sustav temelji se na softveru umjetne inteligencije koji strojno uči i ima mogućnost odricanja od ljudskih moderatora radi automatiziranijeg procesa. Pitanje? YouTubeovi automatizirani sustavi optuženi su za izdvajanje LGBTQ+ sadržaja i kreatora samo zato što postoje.
Čak i ako nije zlonamjerno, što ja ne mislim da jest, radi se o nedostatku mišljenja različitih glasova - ili barem o nedostatku poštovanja.
"Strojno učenje potiču ljudi i stvaraju ga ljudi, a moguće je imati te predrasude svojstvene njemu ili ih je naučio sam stroj", rekao je YouTuber Rowan Ellis u telefonskom intervjuu za Lifewire. "Njegova pristranost u pogledu [LGBTQ+] sadržaja bila je očita u prethodnim iskustvima [LGBTQ+] YouTubera i nisam vidio dokaze da je išta učinjeno da se to spriječi."
Dušo, sada imamo zlu krv
Ellis je YouTuberica koja stvara obrazovne sadržaje s feminističkim i queer sklonostima, a 2017. objavila je video o ograničenom načinu rada tvrtke. Kao početni korak u automatskom moderiranju sadržaja, ovaj je način rada omogućio korisnicima izbornu prethodnu selekciju "potencijalno sadržaja za odrasle" iz prijedloga i preporuka pretraživanja.
Skupivši više od 100 000 pregleda, ona vjeruje da je postojao svjestan pokušaj da se njezin kanal spriječi od ograničenja zbog njezinog glasnog protivljenja pretjeranosti novog koraka YouTubea prema moderiranju. Drugi korisnici na platformi nisu bili te sreće i dali su to do znanja YouTubeu.
Krupnu tužbu protiv YouTubea podnijela je u kolovozu 2019. grupa od osam LGBTQ+ kreatora koji su optužili tvrtku iz Silicijske doline za ograničavanje queer i trans autora i sadržaja. U tužbi se navodi da stranica koristi "nezakonite prakse regulacije sadržaja, distribucije i monetizacije koje stigmatiziraju, ograničavaju, blokiraju, demonetiziraju i financijski štete LGBT tužiteljima i široj LGBT zajednici." Još uvijek se probija kroz kalifornijske sudove.
Strojno učenje potiču ljudi i stvaraju ga ljudi, a moguće je imati te predrasude svojstvene njemu ili ih uči sam stroj.
U lipnju iste godine, platforma je dobila bujicu medijske pažnje nakon što je odbila hitno ukoriti popularnog konzervativnog komentatora Stevena Crowdera zbog višemjesečne homofobne kampanje uznemiravanja novinara i voditelja Voxa Carlosa Maze. Ovo je zacementiralo ono što je Ellis rekao da je obrazac s online platformom ignoriranja jedinstvenih izazova s kojima se queer kreatori suočavaju. Nedostatak vjere LGBTQ+ kreatora u mogućnost YouTubea da im se prikaže nije bez razloga.
"Mislim da nisu razumjeli potrebu za transparentnošću u pogledu društvenih pitanja i osiguravanja jednakosti", rekla je. "Još uvijek ima djece diljem svijeta koja su odrasla s idejom da je biti gay pogrešno, a kada počnu preispitivati to uvjerenje, ali otkriju da je ono zatvoreno sigurnom pretragom ili ograničenjem, to će ojačati tu ideju da je pogrešno, neprikladno, odraslo, perverzno i prljavo."
Neuspjeh automatskog učenja
Uz njegovu prljavu povijest u vezi s kreatorima LGBTQ+ sadržaja na njegovoj platformi, još uvijek postoji zabrinutost oko implementacije sposobnosti softvera za strojno učenje da prepozna veće norme. Don Heider, izvršni direktor Centra za primijenjenu etiku Markkula, sugerira da je potencijal za ludost preveliki rizik za kockanje.
"Teško je vjerovati da umjetna inteligencija može učinkovito upravljati sadržajem iz više zemalja s različitim kulturnim normama i standardima", napisao je u intervjuu e-poštom. "AI se prečesto smatra odgovorom na složena pitanja. U ovom trenutku, umjetna inteligencija i način na koji je stvorena teško se nose čak i s jednostavnim zadacima, a kamoli moderiranjem sadržaja bilo koje razine složenosti."
YouTube se odlučio na korištenje AI tehnologije zbog nedostatka dosljedne moderacije od strane ljudskih moderatora, prema njegovom blogu. Povećanje upotrebe računalnih filtara za uklanjanje videozapisa koji se smatraju neprikladnima postalo je norma, a implementacija istih postupaka za politike dobnog ograničenja smatra se logičnim sljedećim korakom.
Kao tvrtka koja nastoji postupno poboljšati svoje procese nakon dugotrajnih kritika u vezi s odnosom prema djeci potrošačima, ova odluka nije iznenađenje.
Mislim da nisu razumjeli potrebu za transparentnošću u pogledu društvenih pitanja i osiguravanja jednakosti.
Djeca su postala ključna demografska skupina za stranicu za dijeljenje videa. U kolovozu je tvrtka za digitalnu video analitiku Tubular otkrila da je, osim glazbenih videa, sadržaj namijenjen djeci bio na vrhu popisa najgledanijih videozapisa na YouTubeu na kraju mjeseca.
Interes tvrtke da zaštiti ovu unosnu moćnu snagu na platformi ima smisla. Međutim, alati koji se koriste za provedbu ove zaštite i dalje su neugodni za one koji su se već našli nizvodno od postupaka moderiranja tvrtke.
"Brinem se da će to učiniti mnogo štete i da neće zaštititi [LGBTQ+] mlade kojima je potreban informativan, otvoren i iskren sadržaj koji mnogi [LGBTQ+] YouTuberi mogu pružiti, ali biva označen u svom sustavu kao neprikladno", rekao je Ellis."Čak i ako nije zlonamjerno, što ja ne mislim da jest, radi se o nedostatku mišljenja različitih glasova - ili barem o nedostatku poštovanja.
"Vidimo to cijelo vrijeme u tehnici. Kada gledate prepoznavanje lica koje ne uspijeva razlikovati različita crna lica, ili kada pogledamo medicinu i vidimo da je lijek testiran samo na određenom spolu. Ovi su veći razgovori, a YouTube nije izuzet od toga."