Alexina sposobnost oponašanja mrtvih rođaka mogla bi biti najjezivija stvar ikada

Alexina sposobnost oponašanja mrtvih rođaka mogla bi biti najjezivija stvar ikada
Alexina sposobnost oponašanja mrtvih rođaka mogla bi biti najjezivija stvar ikada
Anonim

Ključni podaci za van

  • Amazonov glasovni asistent Alexa može kopirati glas sa samo jednom minutom zvuka.
  • Možete zamoliti Alexu da pročita priču glasom mrtvog roditelja.
  • To je ista ideja kao duboki lažnjaci, samo se koriste za moć dobra.
Image
Image

Posljednji trik Amazon Alexa je naučiti oponašati glas mrtve voljene osobe kako bi vam se mogla obratiti s one strane groba.

Alexa treba samo minutu izgovorenog zvuka da uvjerljivo oponaša glas. Amazon to naplaćuje kao utješnu značajku koja vas može dovesti u kontakt s voljenima, ali može biti i prilično jezivo iskustvo. I pokazuje kako je lako napraviti duboki lažni zvuk koji je dovoljno dobar da nas prevari, čak i kada je glas onaj koji jako dobro poznajemo.

"Amazon je definitivno ušao u prilično jedinstven i bizaran teritorij sa svojom najavom da će Alexa uskoro moći naučiti i koristiti glas mrtvih rođaka", rekao je Bill Mann, stručnjak za privatnost u Restore Privacy. Lifewire putem e-pošte. "Za neke ljude to uopće nije jezivo. Zapravo, može biti prilično dirljivo."

Duh u stroju

Kao dio svoje godišnje re:MARS konferencije, Amazon prikazuje značajku u kratkom videu. U njemu dijete pita Alexa može li mu baka nastaviti čitati "Čarobnjaka iz Oza", omiljeno djelo svakog djeteta u javnoj domeni. I to je prilično dirljiv trenutak. Teško je ne osjetiti ljudske emocije kad baka počne čitati.

"Ljudi se bore sa smrtnošću, posebno u zapadnoj kulturi. Stoljećima smo pokušavali pronaći načine da obilježimo mrtve, od posmrtnih maski, preko pramenova kose, do starih fotografija, do gledanja starih filmova, " Andrew Selepak, profesorica društvenih medija na Sveučilištu Florida, rekla je Lifewireu putem e-pošte. "Deepfakes koriste najnoviju tehnologiju za stvaranje nove posmrtne maske preminule voljene osobe. Ali, ovisno o nečijoj perspektivi, je li to jezivo ili način obilježavanja i zadržavanja nekoga koga volite nakon što umre?"

Ali memento mori može biti i utješan i jeziv. Prijatelj člana obitelji je mrtav, ali ga još uvijek možete čuti kako govori. Ne pomaže to što Alexa ima povijest čudnog, a ponekad i zastrašujućeg ponašanja. Godine 2018., dok je kolumnist NYT-a Farhad Manjoo odlazio u krevet, njegov Amazon Echo "počeo je zapomagati, poput dječjeg vrištanja u snu iz horor filma."

Ubrzo nakon toga, Amazon je priznao da se Alexa ponekad glasno smijala, što je, uz tinejdžere i podrume, horor film 101.

Možemo se samo zapitati kako biste se osjećali da Alexa izvodi iste trikove bakinim glasom.

Deep Fake

Očigledna lakoća s kojom Alexa uči oponašati glas vodi nas do opakih upotreba kloniranja glasa: dubinskih lažiranja.

Image
Image

"Deepfake audio nije novost, čak i ako je malo razumljiv i malo poznat. Tehnologija je dostupna godinama za ponovno stvaranje glasa pojedinca pomoću umjetne inteligencije i dubokog učenja koristeći relativno malo stvarnog zvuka osobe, " kaže Selepak. "Takva tehnologija također može biti opasna i destruktivna. Poremećeni pojedinac mogao bi rekreirati glas mrtvog bivšeg dečka ili djevojke i upotrijebiti novi zvuk da kaže mrske i bolne stvari."

To je samo u kontekstu Alexe. Duboki lažni audio mogao bi ići daleko dalje od toga, uvjeravajući ljude da istaknuti političari, na primjer, vjeruju u ono što ne vjeruju. No, s druge strane, što se više navikavamo na ove duboke krivotvorine - možda u obliku tih Alexa glasova - to ćemo više biti skeptični prema podlijim krivotvorinama. Pa opet, s obzirom na to koliko je lako širiti laži na Facebooku, možda i ne.

Amazon nije rekao dolazi li ova značajka u Alexu ili je to samo tehnološki demo. Nekako se nadam da hoće. Tehnika je najbolja kada se koristi na humanistički način kao što je ovaj, i iako je laka reakcija nazvati je jezivom, kako kaže Selepak, zapravo se ne razlikuje toliko od gledanja starih videa ili slušanja spremljene govorne pošte, poput lika u TV emisiji s lijenim scenarijem.

A ako je tehnologija za duboke krivotvorine lako dostupna, zašto je ne bismo iskoristili da se utješimo?

Preporučeni: