Ključni podaci za van
- Kako je deepfakeove sve lakše napraviti, novi i poboljšani načini njihovog uočavanja postali su prioritet.
- Facebookova tehnologija uočavanja deepfake-a koristi obrnuto strojno učenje kako bi otkrila je li video deepfake ili ne.
- Stručnjaci kažu da bi upotreba tehnologije blockchain bila najbolji način da se vidi je li video stvaran ili ne jer se metoda oslanja na kontekstualne podatke.
Facebook je uvjeren u svoj model strojnog učenja za borbu protiv deepfakeova, ali stručnjaci kažu da nas samo strojno učenje neće spasiti od prevare deepfakeova.
Tvrtke poput Facebooka, Microsofta i Googlea rade na suzbijanju širenja deepfakeova webom i društvenim mrežama. Iako se metode razlikuju, postoji jedna potencijalno sigurna metoda za uočavanje ovih lažnih videozapisa: lanci blokova.
“[Blockchains] vam samo daju mnogo potencijala da potvrdite deepfake na način koji je najbolji oblik provjere koji mogu vidjeti,” Stephen Wolfram, osnivač i izvršni direktor Wolfram Researcha i autor knjige A New Kind of Znanost, rekao je Lifewireu telefonom.
Facebookova tehnologija Deepfake-Spotting
Deepfake tehnologija je brzo rasla u posljednjih nekoliko godina. Videozapisi koji dovode u zabludu koriste metode strojnog učenja za radnje poput postavljanja nečijeg lica na tijelo druge osobe, mijenjanje pozadinskih uvjeta, lažnu sinkronizaciju usana i još mnogo toga. Oni se kreću od bezopasnih parodija do natjeravanja slavnih ili javnih osoba da kažu ili učine nešto što nisu.
Stručnjaci kažu da tehnologija brzo napreduje i da će deepfakeovi postajati sve uvjerljiviji (i lakši za izradu) kako tehnologija postaje šire dostupna i inovativnija.
Facebook je nedavno dao bolji uvid u svoju tehnologiju otkrivanja deepfakea u partnerstvu sa Sveučilištem Michigan State. Društvena mreža kaže da se oslanja na obrnuti inženjering od jedne slike generirane umjetnom inteligencijom do generativnog modela koji se koristi za njezinu proizvodnju.
Znanstvenici koji su radili s Facebookom rekli su da se metoda oslanja na otkrivanje jedinstvenih obrazaca iza modela umjetne inteligencije koji se koristi za generiranje deepfakea.
“Generalizirajući atribuciju slike otvorenom prepoznavanju, možemo zaključiti više informacija o generativnom modelu korištenom za stvaranje deepfakea koji ide dalje od prepoznavanja da prije nije viđen. I praćenjem sličnosti među obrascima kolekcije deepfakeova, također bismo mogli reći je li niz slika potjecao iz jednog izvora,” napisali su istraživači Xi Yin i Tan Hassner u objavi na Facebookovom blogu o njegovoj metodi uočavanja deepfakea.
Wolfram kaže da ima smisla koristiti strojno učenje za uočavanje naprednog AI modela (deepfake). Međutim, uvijek ima prostora za prevariti tehnologiju.
"Uopće me ne čudi što postoji pristojan način strojnog učenja za [otkrivanje deepfakeova]", rekao je Wolfram. “Jedino je pitanje, ako uložite dovoljno truda, možete li ga prevariti? Siguran sam da možeš.”
Borba protiv Deepfakea na drugačiji način
Umjesto toga, Wolfram je rekao da vjeruje da bi upotreba blockchaina bila najbolja opcija za točno uočavanje određenih vrsta deepfakeova. Njegovo mišljenje o korištenju blockchaina umjesto strojnog učenja seže u 2019. i rekao je da, u konačnici, blockchain pristup može pružiti točnije rješenje za naš problem deepfakea.
“Očekivao bih da gledatelji slika i videa mogu rutinski provjeravati u odnosu na blockchaine (i 'izračune triangulacije podataka') slično kao što web preglednici sada provjeravaju sigurnosne certifikate,” napisao je Wolfram u članku objavljenom u Scientific Americanu.
Budući da lanci blokova pohranjuju podatke u blokove koji se zatim lančano povezuju kronološkim redoslijedom, a budući da su decentralizirani lanci blokova nepromjenjivi, uneseni podaci su nepovratni.
Jedino je pitanje, ako uložite dovoljno truda, možete li ga prevariti? Siguran sam da možeš.
Wolfram je objasnio da biste stavljanjem videa u blockchain mogli vidjeti vrijeme snimanja, lokaciju i druge kontekstualne informacije koje bi vam omogućile da kažete je li na bilo koji način izmijenjen.
"Općenito, ako imate više metapodataka koji kontekstualiziraju sliku ili video, veća je vjerojatnost da ćete moći reći", rekao je. "Ne možete lažirati vrijeme na blockchainu."
Međutim, Wolfram je rekao da metoda koja se koristi - bilo da se radi o strojnom učenju ili korištenju blockchaina - ovisi o vrsti deepfake-a od kojeg se pokušavate zaštititi (tj. videozapis Kim Kardashian koja govori nešto glupo ili videozapis političar koji daje izjavu ili prijedlog).
"Blockchain pristup štiti od određenih vrsta dubinskih krivotvorina, baš kao što obrada slike strojnog učenja štiti od određenih vrsta dubinskih lažiranja," rekao je.
Suština je, čini se, budnost za sve nas kada se radi o borbi protiv nadolazećeg dubokog lažnog potopa.