Kako algoritamska pristranost može naškoditi tinejdžerima

Sadržaj:

Kako algoritamska pristranost može naškoditi tinejdžerima
Kako algoritamska pristranost može naškoditi tinejdžerima
Anonim

Ključni podaci za van

  • Algoritamska pristranost štetna je za tinejdžere koji provode puno vremena na internetu, kažu stručnjaci.
  • Korisnici Twittera nedavno su se susreli s problemom u kojem su crna lica izbačena u korist bijelih.
  • Mozgovi tinejdžera u razvoju mogu biti posebno osjetljivi na štetne učinke algoritamske pristranosti, kažu istraživači.
Image
Image

Predrasude ugrađene u neke tehnologije, poznate kao algoritamska pristranost, mogu biti štetne za mnoge skupine, ali stručnjaci kažu da su posebno štetne za tinejdžere.

Algoritamska pristranost, kada računalni sustavi pokazuju rezultate s predrasudama, sve je veći problem. Korisnici Twittera nedavno su pronašli primjer pristranosti na platformi kada je algoritam za detekciju slike koji izrezuje fotografije izrezivao crna lica u korist bijelih. Tvrtka se ispričala zbog problema, ali još nije objavila popravak. To je primjer predrasuda s kojima se tinejdžeri suočavaju kada idu na internet, što čine više od bilo koje druge dobne skupine, kažu stručnjaci.

"Većina tinejdžera nije svjesna da ih tvrtke društvenih medija imaju za promicanje određenog sadržaja za koji misle da će se svidjeti korisnicima [kako bi ih natjerali da ostanu što dulje na platformi", dr. Mai- Ly Nguyen Steers, docentica na Školi za medicinske sestre na Sveučilištu Duquesne koja proučava korištenje društvenih medija među adolescentima/studentima, rekla je u intervjuu e-poštom.

"Čak i ako postoji određena razina svijesti o algoritmu, učinak nedovoljno lajkova i komentara još uvijek je snažan i može utjecati na samopouzdanje tinejdžera", dodao je Steers.

Razvoj mozga

Algoritamska pristranost može utjecati na tinejdžere na nepredviđene načine budući da se njihov prefrontalni korteks još razvija, objasnila je Mikaela Pisani, glavna znanstvenica za podatke u Rootstrapu, u intervjuu e-poštom.

Učinak nedovoljno lajkova i komentara i dalje je snažan i može utjecati na samopouzdanje tinejdžera.

"Tinejdžeri su posebno ranjivi na fenomen 'društvene tvornice', gdje algoritmi stvaraju društvene klastere na online platformama, što dovodi do anksioznosti i depresije ako tinejdžerove potrebe za društvenim odobravanjem nisu zadovoljene", rekao je Pisani. "Algoritmi se pojednostavljuju na temelju prethodnih nesavršenih podataka - što dovodi do prevelike zastupljenosti stereotipa nauštrb nijansiranih pristupa oblikovanju identiteta.

"Uzimajući šire gledište, također smo ostavljeni da se zapitamo, kao društvo, želimo li algoritme koji oblikuju putovanja naših tinejdžera u odraslu dob, i podržava li ovaj sustav uopće, a ne guši osobni razvoj pojedinca?"

Zbog ovih problema postoji sve veća potreba da se pri dizajniranju algoritama imaju na umu tinejdžeri, kažu stručnjaci.

"Na temelju unosa stručnjaka za razvoj, podatkovnih znanstvenika i zagovornika mladih, politike 21. stoljeća u vezi s privatnošću podataka i algoritamskim dizajnom također se mogu konstruirati imajući na umu posebne potrebe adolescenata", Avriel Epps-Darling, doktorantica student na Harvardu, napisao je nedavno. "Ako umjesto toga nastavimo umanjivati ili ignorirati načine na koje su tinejdžeri ranjivi na algoritamski rasizam, šteta će vjerojatno odjeknuti kroz generacije koje dolaze."

Borba protiv predrasuda

Dok ne postoji rješenje, neki istraživači pokušavaju pronaći načine za smanjenje štete koju mladima nanose pristrani algoritmi.

"Intervencije su bile usmjerene na to da tinejdžeri prepoznaju kako obrasci njihovih društvenih medija negativno utječu na njihovo mentalno zdravlje i pokušaju osmisliti strategije za ublažavanje toga (npr. smanjena upotreba društvenih medija)," rekao je Steers.

"Neki od studenata koje smo intervjuirali naveli su da se osjećaju prisiljeni generirati sadržaj kako bi ostao "relevantan", čak i ako ne žele izlaziti ili objavljivati", nastavila je. "Međutim, smatraju da trebaju stvarati sadržaj kako bi održali svoje veze sa svojim sljedbenicima ili prijateljima."

Krajnji odgovor mogao bi biti uklanjanje ljudskih predrasuda iz računala. No budući da su programeri samo ljudi, stručnjaci kažu da je to težak izazov.

Jedno od mogućih rješenja je razviti računala koja su decentralizirana i programirana da zaborave stvari koje su naučili, kaže John Suit, glavni tehnološki direktor u tvrtki za robotiku KODA.

"Kroz decentraliziranu mrežu podaci i analitika tih podataka prikupljaju se i analiziraju s više točaka", rekao je Suit u intervjuu e-poštom. "Podaci se prikupljaju i obrađuju ne iz jedne obrade AI uma unutar granica svog algoritma, već stotine ili čak tisuće.

"Dok se ti podaci prikupljaju i analiziraju, stari "zaključci" ili suvišni podaci se zaboravljaju. Kroz ovaj sustav, algoritam koji je možda počeo s pristranošću na kraju će ispraviti i zamijeniti tu pristranost ako se pokaže da je pogrešna."

Iako je pristranost prastari problem, možda postoje načini za borbu protiv nje, barem na mreži. Dizajniranje računala koja odbacuju naše predrasude prvi je korak.

Preporučeni: