Ključni podaci za van
- Novi softverski alat omogućuje umjetnoj inteligenciji da prati internetske komentare na govor mržnje.
- AI je potrebna za moderiranje internetskog sadržaja zbog enormne količine materijala koji nadilazi ljudske mogućnosti.
- Ali neki stručnjaci kažu da AI praćenje govora izaziva zabrinutost zbog privatnosti.
Kako se internetski govor mržnje povećava, jedna tvrtka kaže da bi mogla imati rješenje koje se ne oslanja na ljudske moderatore.
Startup pod nazivom Spectrum Labs pruža tehnologiju umjetne inteligencije pružateljima platformi za otkrivanje i gašenje toksičnih razmjena u stvarnom vremenu. Ali stručnjaci kažu da AI nadzor također dovodi do pitanja privatnosti.
"Nadgledanje umjetne inteligencije često zahtijeva promatranje uzoraka tijekom vremena, što zahtijeva zadržavanje podataka", rekao je David Moody, viši suradnik u Schellmanu, tvrtki za procjenu usklađenosti sigurnosti i privatnosti, rekao je za Lifewire u intervjuu e-poštom. "Ovi podaci mogu uključivati podatke koje su zakoni označili kao podatke o privatnosti (osobne informacije ili PII)."
Više govora mržnje
Spectrum Labs obećava visokotehnološko rješenje za prastari problem govora mržnje.
"U prosjeku pomažemo platformama smanjiti napore moderiranja sadržaja za 50% i povećati otkrivanje toksičnih ponašanja za 10x", tvrdi tvrtka na svojoj web stranici.
Spectrum kaže da je surađivao s istraživačkim institutima sa ekspertizom u određenim štetnim ponašanjima kako bi izgradio više od 40 modela identifikacije ponašanja. Tvrtkinu platformu za moderiranje sadržaja Guardian izgradio je tim znanstvenika i moderatora podataka kako bi "podržali zaštitu zajednica od toksičnosti."
Postoji sve veća potreba za načinima borbe protiv govora mržnje jer je nemoguće da čovjek prati svaki dio internetskog prometa, Dylan Fox, izvršni direktor AssemblyAI-a, startupa koji pruža prepoznavanje govora i ima klijente uključene u praćenje mržnje govor, rekao je Lifewireu u intervjuu e-poštom.
"Postoji oko 500 milijuna tweetova dnevno samo na Twitteru", dodao je. "Čak i kad bi jedna osoba mogla provjeriti tweet svakih 10 sekundi, twitter bi za to trebao zaposliti 60 tisuća ljudi. Umjesto toga, koristimo pametne alate poput umjetne inteligencije za automatizaciju procesa."
Za razliku od čovjeka, umjetna inteligencija može raditi 24 sata dnevno, 7 dana u tjednu i potencijalno biti pravednija jer je osmišljena da jedinstveno primjenjuje svoja pravila na sve korisnike bez uplitanja osobnih uvjerenja, rekao je Fox. Postoji i trošak za one ljude koji moraju pratiti i moderirati sadržaj.
"Mogu biti izloženi nasilju, mržnji i gadnim postupcima, koji mogu naštetiti mentalnom zdravlju osobe", rekao je.
Spectrum nije jedina tvrtka koja nastoji automatski otkriti govor mržnje na internetu. Na primjer, Centre Malaysia nedavno je pokrenuo mrežno praćenje osmišljeno za pronalaženje govora mržnje među malezijskim netizenima. Softver koji su razvili, nazvan Tracker Benci, koristi strojno učenje za otkrivanje govora mržnje na internetu, posebice na Twitteru.
Izazov je kako stvoriti prostore u kojima ljudi zaista mogu konstruktivno surađivati jedni s drugima.
Zabrinutost u vezi s privatnošću
Iako se tehnološka rješenja poput Spectruma mogu boriti protiv internetskog govora mržnje, ona također postavljaju pitanja o tome koliko bi računala trebala raditi u nadzoru.
Postoje implikacije slobode govora, ali ne samo za govornike čije bi objave bile uklonjene kao govor mržnje, rekla je Lifewireu u e-poruci Irina Raicu, direktorica internetske etike u Centru za primijenjenu etiku Markkula na Sveučilištu Santa Clara. intervju.
"Dopuštanje uznemiravanja u ime 'slobode govora' natjeralo je mete takvog govora (osobito kada je usmjeren na određene pojedince) da prestanu govoriti - da u potpunosti napuste razne razgovore i platforme", rekao je Raicu."Izazov je kako stvoriti prostore u kojima ljudi mogu stvarno konstruktivno sudjelovati jedni s drugima."
Nadziranje govora pomoću umjetne inteligencije ne bi trebalo dovoditi u pitanje privatnost ako tvrtke tijekom nadzora koriste javno dostupne informacije, rekao je Fox. Međutim, ako tvrtka kupi pojedinosti o tome kako korisnici stupaju u interakciju na drugim platformama kako bi unaprijed identificirala problematične korisnike, to bi moglo izazvati zabrinutost u vezi s privatnošću.
"Definitivno može biti pomalo siva zona, ovisno o primjeni", dodao je.
Justin Davis, izvršni direktor Spectrum Labsa, rekao je Lifewireu u e-poruci da tehnologija tvrtke može pregledati 2 do 5 tisuća redaka podataka unutar djelića sekunde. "Ono što je najvažnije, tehnologija može smanjiti količinu toksičnog sadržaja kojem su moderatori izloženi", rekao je.
Možda smo na pragu revolucije u AI praćenju ljudskog govora i teksta na mreži. Budući napredak uključuje bolje neovisne i autonomne mogućnosti nadzora za prepoznavanje prethodno nepoznatih oblika govora mržnje ili bilo kojih drugih cenzuriranih obrazaca koji će se razvijati, rekao je Moody.
AI će također uskoro moći prepoznati obrasce u određenim govornim obrascima i povezati izvore i njihove druge aktivnosti putem analize vijesti, javnih arhiva, analize prometnih obrazaca, fizičkog nadzora i mnogih drugih opcija, dodao je.
Ali neki stručnjaci kažu da će ljudi uvijek morati raditi s računalima kako bi pratili govor mržnje.
"Samo umjetna inteligencija neće funkcionirati," rekao je Raicu. "Mora se prepoznati kao jedan nesavršen alat koji se mora koristiti u kombinaciji s drugim odgovorima."
Ispravak 25.1.2022.: Dodan citat Justina Davisa u 5. odlomku od kraja kako bi odražavao e-poruku nakon objave.