Ključni podaci za van
- Novo istraživanje otkriva da ljudi ne mogu odvojiti slike generirane umjetnom inteligencijom od stvarnih.
- Sudionici su ocijenili slike generirane umjetnom inteligencijom kao pouzdanije.
- Stručnjaci vjeruju da bi ljudi trebali prestati vjerovati svemu što vide na internetu.
Izreka 'vidjeti znači vjerovati' više nije relevantna kada je u pitanju internet, a stručnjaci kažu da neće uskoro biti bolje.
Nedavna studija otkrila je da su slike lica koje je generirala umjetna inteligencija (AI) ne samo vrlo foto-realistične, nego su također izgledale čestitije od stvarnih lica.
"Naša procjena fotorealizma lica sintetiziranih umjetnom inteligencijom ukazuje na to da su strojevi za sintezu prošli kroz jezovitu dolinu i sposobni su stvoriti lica koja se ne mogu razlikovati i koja su vjerodostojnija od stvarnih lica", primijetili su istraživači.
Ta osoba ne postoji
Istraživači, dr. Sophie Nightingale sa Sveučilišta Lancaster i profesor Hany Farid sa kalifornijskog sveučilišta Berkeley, proveli su eksperimente nakon što su priznali dobro oglašene prijetnje dubinskih lažiranja, u rasponu od svih vrsta online prijevara do osnažujućih kampanje dezinformiranja.
"Možda je najopasnija posljedica da se, u digitalnom svijetu u kojem se svaka slika ili video može lažirati, autentičnost svake nezgodne ili nepoželjne snimke može dovesti u pitanje", tvrdili su istraživači.
Tvrdili su da iako je bilo napretka u razvoju automatskih tehnika za otkrivanje duboko lažnog sadržaja, trenutne tehnike nisu dovoljno učinkovite i precizne da drže korak sa stalnim protokom novog sadržaja koji se učitava online. To znači da je na potrošačima online sadržaja da razlikuju pravi od lažnog, predlaže dvojac.
Jelle Wieringa, zagovornica svijesti o sigurnosti u KnowBe4, slaže se. Rekao je Lifewireu putem e-pošte da je borba protiv stvarnih dubokih krivotvorina iznimno teška bez specijalizirane tehnologije. "[Tehnologije za ublažavanje] mogu biti skupe i teške za implementaciju u procese u stvarnom vremenu, često otkrivajući deepfake tek nakon činjenice."
S ovom pretpostavkom, istraživači su izveli niz eksperimenata kako bi utvrdili mogu li ljudski sudionici razlikovati najsuvremenija sintetizirana lica od stvarnih lica. U svojim su testovima otkrili da se unatoč obuci za pomoć u prepoznavanju krivotvorina, stopa točnosti poboljšala na samo 59%, u odnosu na 48% bez obuke.
To je navelo istraživače da testiraju mogu li percepcije pouzdanosti pomoći ljudima da prepoznaju umjetne slike. U trećoj studiji, tražili su od sudionika da ocijene vjerodostojnost lica, samo da bi otkrili da je prosječna ocjena za sintetička lica bila 7.7% pouzdaniji od prosječne ocjene za stvarna lica. Brojka možda ne zvuči puno, ali istraživači tvrde da je statistički značajna.
Deeper Fakes
Duboke krivotvorine već su predstavljale veliku zabrinutost, a sada je voda dodatno zamućena ovom studijom, koja sugerira da bi tako visokokvalitetne lažne slike mogle dodati potpuno novu dimenziju online prijevarama, na primjer, pomažući u stvaranju više uvjerljivi online lažni profili.
"Jedina stvar koja pokreće kibernetičku sigurnost je povjerenje koje ljudi imaju u tehnologije, procese i ljude koji ih pokušavaju zaštititi", podijelio je Wieringa. "Duboke krivotvorine, osobito kada postanu fotorealistične, potkopavaju ovo povjerenje i, prema tome, usvajanje i prihvaćanje kibernetičke sigurnosti. To može dovesti do toga da ljudi postanu nepovjerljivi prema svemu što percipiraju."
Chris Hauk, pobornik privatnosti potrošača u tvrtki Pixel Privacy, slaže se. U kratkoj razmjeni e-pošte, rekao je Lifewireu da bi fotorealistični dubinski lažnjak mogao izazvati "pustoš" na internetu, posebno ovih dana kada se svim vrstama računa može pristupiti pomoću tehnologije ID-a s fotografijom.
Korektivna radnja
Srećom, Greg Kuhn, direktor IoT-a, Prosegur Security, kaže da postoje procesi koji mogu izbjeći takvu lažnu autentifikaciju. Rekao je Lifewireu putem e-pošte da sustavi vjerodajnica temeljeni na umjetnoj inteligenciji povezuju provjerenu osobu s popisom, ali mnogi imaju ugrađene zaštitne mjere za provjeru "živosti".
"Ove vrste sustava mogu zahtijevati i usmjeravati korisnika da izvrši određene zadatke kao što je osmijeh ili okretanje glave ulijevo, pa udesno. To su stvari koje statički generirana lica ne mogu izvesti," podijelio je Kuhn.
Istraživači su predložili smjernice za reguliranje njihove izrade i distribucije kako bi zaštitili javnost od sintetičkih slika. Za početak, predlažu ugradnju duboko ukorijenjenih vodenih žigova u same mreže za sintezu slike i videa kako bi se osiguralo da se svi sintetički mediji mogu pouzdano identificirati.
Do tada, Paul Bischoff, zagovornik privatnosti i urednik infosec istraživanja u Comparitechu, kaže da su ljudi prepušteni sami sebi."Ljudi će morati naučiti ne vjerovati licima na internetu, baš kao što smo svi mi (nadajmo se) naučili ne vjerovati prikaznim imenima u našim e-porukama", rekao je Bischoff Lifewireu putem e-pošte.