Zašto novi softver za profiliranje izaziva zabrinutost zbog privatnosti

Sadržaj:

Zašto novi softver za profiliranje izaziva zabrinutost zbog privatnosti
Zašto novi softver za profiliranje izaziva zabrinutost zbog privatnosti
Anonim

Ključni podaci za van

  • Softver koji koristi umjetnu inteligenciju za profiliranje ljudi izaziva zabrinutost zbog privatnosti.
  • Cryfe kombinira tehnike analize ponašanja s umjetnom inteligencijom.
  • Kineska tvrtka Alibaba nedavno se suočila s kritikama nakon što je navodno rekla da njezin softver može otkriti Ujgure i druge etničke manjine.
Image
Image

Novi softver pokretan umjetnom inteligencijom koji je namijenjen poslodavcima za profiliranje svojih zaposlenika izaziva brigu o privatnosti.

Jedna nova softverska platforma, nazvana Cryfe, kombinira tehnike analize ponašanja s umjetnom inteligencijom. Programer tvrdi da analizirajući sitne tragove, softver može otkriti namjere ljudi tijekom intervjua. Ali neki promatrači kažu da Cryfe i druge vrste softvera koji analiziraju ponašanje mogu narušiti privatnost.

"Tvrtke se sve više oslanjaju na umjetnu inteligenciju za profiliranje", rekao je stručnjak za umjetnu inteligenciju Vaclav Vincale u intervjuu e-poštom. "Ali čak ni ljudi koji kodiraju ove algoritme, a još manje osoba za korisničku podršku koju dobijete telefonom, ne mogu vam reći zašto daju bilo kakvu preporuku."

Više od riječi

Cryfe razvila je švicarska tvrtka čije je zaposlenike FBI obučavao u tehnikama profiliranja. "Cryfe, u svim međuljudskim komunikacijama, ne sluša samo riječi, već identificira i druge signale koje emitira čovjek, kao što su emocije, mikroizrazi i sve geste", rekla je Caroline Matteucci, osnivačica Cryfea, u intervjuu e-poštom.

"Tijekom regrutacije, na primjer, to nam omogućuje da odemo i tražimo pravu osobnost našeg sugovornika."

Matteucci je rekao da je privatnost korisnika zaštićena jer je tvrtka transparentna u pogledu rada svog softvera. "Korisnik, prije nego što može koristiti platformu, mora prihvatiti opće uvjete", rekla je.

"Tamo je navedeno da korisnik ni u kojem slučaju ne smije dati intervju na analizu bez prethodnog pismenog pristanka sugovornika."

Cryfe nije jedini softver koji pokreće AI koji navodno analizira ljudsko ponašanje. Tu je i Humantic, koji tvrdi da analizira ponašanje potrošača. "Humanticova inovativna tehnologija predviđa svačije ponašanje bez potrebe za polaganjem testa osobnosti", navodi se na web stranici tvrtke.

Image
Image

Tvrtka tvrdi da koristi AI za izradu psiholoških profila kandidata na temelju riječi koje koriste u životopisima, propratnim pismima, LinkedIn profilima i bilo kojem drugom tekstu koji predaju.

Bihevioralni softver je u prošlosti naišao na pravne izazove. Godine 2019. Bloombergov zakon izvijestio je da je Komisija za jednake mogućnosti zapošljavanja (EEOC) istraživala slučajeve navodne nezakonite diskriminacije zbog odluka koje se odnose na ljudske resurse potpomognute algoritmima.

"Ovo će se sve morati razraditi jer je budućnost regrutiranja umjetna inteligencija", rekao je odvjetnik Bradford Newman za Bloomberg.

Neki promatrači smetaju tvrtkama koje koriste softver za praćenje ponašanja jer nije dovoljno precizan. U intervjuu, Nigel Duffy, voditelj globalne umjetne inteligencije u tvrtki za profesionalne usluge EY, rekao je za InformationWeek da ga muči softver koji koristi kvizove na društvenim mrežama i utječe na otkrivanje.

"Mislim da postoji stvarno uvjerljiva literatura o potencijalu za otkrivanje afekta, ali ja razumijem da je način na koji se to provodi često prilično naivan," rekao je.

"Ljudi izvlače zaključke koje znanost zapravo ne podupire [kao što je] odluka da je netko potencijalno dobar zaposlenik jer se puno smiješi ili odluka da se nekome sviđaju vaši proizvodi jer se puno smiješi."

Kineske tvrtke navodno profiliraju manjine

Praćenje ponašanja moglo bi imati i zlokobnije svrhe, kažu neke skupine za ljudska prava. U Kini, online tržišni div Alibaba nedavno je podigao uzbunu nakon što je navodno tvrdio da njegov softver može otkriti Ujgure i druge etničke manjine.

The New York Times izvijestio je da je tvrtka za računalstvo u oblaku imala softver koji je skenirao slike i videozapise.

Ali čak ni ljudi koji kodiraju ove algoritme…ne bi vam mogli reći zašto daju bilo kakvu preporuku.

The Washington Post također je nedavno izvijestio da je Huawei, još jedna kineska tehnološka tvrtka, testirala softver koji bi mogao upozoriti policiju kada njegove nadzorne kamere otkriju lica Ujgura.

Prijava patenta iz 2018. koju je podnio Huawei navodno tvrdi da je "identifikacija atributa pješaka vrlo važna" u tehnologiji prepoznavanja lica."Atributi ciljnog objekta mogu biti spol (muški, ženski), dob (kao što su tinejdžeri, sredovječni, stari) [ili] rasa (Han, Ujgur)," rekla je aplikacija.

Glasnogovornik Huaweia rekao je za CNN Business da značajka identifikacije etničke pripadnosti "nikada nije trebala postati dio aplikacije."

Rastuće korištenje umjetne inteligencije za razvrstavanje golemih količina podataka sigurno će izazvati zabrinutost u vezi s privatnošću. Možda nikada nećete saznati tko ili što vas analizira sljedeći put kada odete na razgovor za posao.

Preporučeni: