Zašto bi softver za čitanje emocija mogao narušiti vašu privatnost

Sadržaj:

Zašto bi softver za čitanje emocija mogao narušiti vašu privatnost
Zašto bi softver za čitanje emocija mogao narušiti vašu privatnost
Anonim

Ključni podaci za van

  • Zoom je navodno rekao da će koristiti AI za procjenu raspoloženja ili razine angažmana korisnika.
  • Skupine za ljudska prava traže od Zooma da preispita svoj plan zbog zabrinutosti za privatnost i sigurnost podataka.
  • Neke tvrtke također koriste softver za otkrivanje emocija tijekom intervjua kako bi procijenile obraća li korisnik pažnju.
Image
Image

Sve veća upotreba umjetne inteligencije (AI) za praćenje ljudskih emocija izaziva zabrinutost u vezi s privatnošću.

Organizacije za ljudska prava traže od Zooma da uspori svoj plan uvođenja umjetne inteligencije koja analizira emocije u svoj softver za video konferencije. Tvrtka je navodno rekla da će koristiti AI za procjenu raspoloženja ili razine angažmana korisnika.

"Stručnjaci priznaju da analiza emocija ne funkcionira", napisao je konzorcij grupa za ljudska prava, uključujući ACLU, u pismu Zoomu. "Izrazi lica često nisu povezani s emocijama koje se nalaze ispod, a istraživanja su otkrila da čak ni ljudi ponekad ne mogu točno pročitati ili izmjeriti emocije drugih. Razvijanje ovog alata povećava vjerodostojnost pseudoznanosti i stavlja vaš ugled na kocku."

Zoom nije odmah odgovorio na zahtjev Lifewirea za komentar.

Pazite na svoje emocije

Prema članku Protocol, sustav nadzora Zoom pod nazivom Q for Sales provjeravao bi omjer vremena razgovora korisnika, kašnjenje vremena odgovora i česte promjene govornika kako bi pratio koliko je osoba angažirana. Zoom bi koristio te podatke za dodjeljivanje rezultata između nula i 100, s višim rezultatima koji ukazuju na veći angažman ili osjećaj.

Skupine za ljudska prava tvrde da bi softver mogao diskriminirati osobe s invaliditetom ili određene etničke pripadnosti pretpostavljajući da svi koriste iste izraze lica, glasovne obrasce i govor tijela za komunikaciju. Grupe također sugeriraju da bi softver mogao predstavljati sigurnosni rizik za podatke.

Image
Image

"Prikupljanje duboko osobnih podataka moglo bi bilo koji subjekt koji koristi ovu tehnologiju učiniti metom za njuškanje državnih tijela i zlonamjernih hakera," navodi se u pismu.

Julia Stoyanovich, profesorica računalnih znanosti i inženjerstva na Sveučilištu New York, izjavila je za Lifewire u intervjuu e-poštom da je skeptična u pogledu tvrdnji iza otkrivanja emocija.

"Ne vidim kako takva tehnologija može funkcionirati - emocionalni izraz ljudi vrlo je individualan, vrlo kulturološki ovisan i vrlo specifičan o kontekstu", rekao je Stoyanovich."No, što je možda još važnije, ne vidim zašto bismo željeli da ti alati rade. Drugim riječima, bili bismo u još većoj nevolji da su dobro radili. Ali možda bismo čak i prije razmišljanja o rizicima trebali pitaj - koje su potencijalne prednosti takve tehnologije?"

Zoom nije jedina tvrtka koja koristi softver za otkrivanje emocija. Theo Wills, viši direktor za privatnost u Kuma LLC, konzultantskoj tvrtki za privatnost i sigurnost, rekao je Lifewireu putem e-pošte da se softver za otkrivanje emocija koristi tijekom intervjua kako bi se procijenilo obraća li korisnik pažnju. Također se pilotira u transportnoj industriji kako bi se pratilo djeluju li vozači pospano, na videoplatformama za procjenu interesa i prilagođavanje preporuka te u obrazovnim vodičima kako bi se utvrdilo je li određena metoda podučavanja zanimljiva.

Wills je tvrdio da je kontroverza oko softvera za praćenje emocija više pitanje etike podataka nego privatnosti. Rekla je da se radi o tome da sustav donosi odluke u stvarnom svijetu na temelju predosjećaja.

"S ovom tehnologijom sada pretpostavljate razlog zašto imam određeni izraz lica, ali poticaj iza izraza uvelike varira zbog stvari kao što su društveni ili kulturni odgoj, obiteljsko ponašanje, prošla iskustva ili nervoza u ovom trenutku," dodao je Wills. "Temeljenje algoritma na pretpostavci je inherentno manjkavo i potencijalno diskriminirajuće. Mnoge populacije nisu predstavljene u populaciji na kojoj se temelje algoritmi, a odgovarajuća reprezentacija mora imati prioritet prije nego što se to koristi."

Praktična razmatranja

Problemi koje pokreće softver za praćenje emocija mogu biti praktični kao i teoretski. Matt Heisie, suosnivač Ferret.ai, aplikacije vođene umjetnom inteligencijom koja pruža inteligenciju odnosa, rekao je Lifewireu u e-poruci da korisnici moraju pitati gdje se radi analiza lica i koji se podaci pohranjuju. Provodi li se studija na snimkama poziva, obradi u oblaku ili na lokalnom uređaju?

Također, Heisie je pitao, kako algoritam uči, koje podatke prikuplja o nečijem licu ili pokretima koji bi se potencijalno mogli odvojiti od algoritma i upotrijebiti za ponovno stvaranje nečije biometrije? Pohranjuje li tvrtka snimke kako bi potvrdila ili potvrdila učenje algoritma i je li korisnik obaviješten o tim novim izvedenim podacima ili pohranjenim slikama koje se potencijalno prikupljaju iz njihovih poziva?

"Sve su to problemi koje su mnoge tvrtke riješile, ali postoje i tvrtke koje je potresao skandal kada se ispostavilo da to nisu učinile kako treba", rekla je Heisie. "Facebook je najznačajniji slučaj tvrtke koja je ukinula svoju platformu za prepoznavanje lica zbog zabrinutosti oko privatnosti korisnika. Matična tvrtka Meta sada povlači AR značajke s Instagrama u nekim jurisdikcijama poput Illinoisa i Teksasa zbog zakona o privatnosti koji okružuju biometrijske podatke."

Preporučeni: