Kako bi umjetna inteligencija mogla nadzirati svoje opasno potomstvo

Sadržaj:

Kako bi umjetna inteligencija mogla nadzirati svoje opasno potomstvo
Kako bi umjetna inteligencija mogla nadzirati svoje opasno potomstvo
Anonim

Ključni podaci za van

  • Novi dokument tvrdi da umjetna inteligencija može odrediti koji istraživački projekti trebaju više regulacije od drugih.
  • To je dio rastućih napora da se otkrije koja vrsta umjetne inteligencije može biti opasna.
  • Jedan stručnjak kaže da je stvarna opasnost od umjetne inteligencije to što bi ljude mogla učiniti glupima.

Image
Image

Umjetna inteligencija (AI) nudi mnoge prednosti, ali i neke potencijalne opasnosti. A sada su istraživači predložili metodu za praćenje njihovih kompjuteriziranih kreacija.

Međunarodni tim kaže u novom radu da umjetna inteligencija može odrediti koje bi vrste istraživačkih projekata mogle zahtijevati veću regulaciju od drugih. Znanstvenici su upotrijebili model koji spaja koncepte iz biologije i matematike i dio je sve većeg napora da se otkrije koja vrsta umjetne inteligencije može biti opasna.

"Naravno, dok 'znanstveno-fantastična' opasna upotreba umjetne inteligencije može nastati ako tako odlučimo […], ono što umjetnu inteligenciju čini opasnom nije sama umjetna inteligencija, nego [kako je koristimo], " Thierry Rayna, predstojnik Tehnologije za promjenu na École Polytechnique u Francuskoj, rekao je za Lifewire u intervjuu e-poštom. "Implementacija umjetne inteligencije može ili povećati kompetencije (na primjer, pojačava relevantnost vještina i znanja ljudi/radnika) ili uništiti kompetencije, tj. umjetna inteligencija čini postojeće vještine i znanja manje korisnima ili zastarjelima."

Pravljenje kartica

Autori nedavnog rada napisali su u postu da su izgradili model za simulaciju hipotetskih AI natjecanja. Pokrenuli su simulaciju stotine puta kako bi pokušali predvidjeti kako bi AI utrke mogle funkcionirati u stvarnom svijetu.

"Varijabla za koju smo utvrdili da je posebno važna bila je "duljina" utrke - vrijeme koje je našim simuliranim utrkama trebalo da postignu svoj cilj (funkcionalni AI proizvod)," napisali su znanstvenici. "Kada su AI utrke brzo postigle svoj cilj, otkrili smo da su natjecatelji za koje smo kodirali da uvijek zanemaruju sigurnosne mjere uvijek pobjeđivali."

Nasuprot tome, istraživači su otkrili da dugoročni projekti umjetne inteligencije nisu toliko opasni jer pobjednici nisu uvijek bili oni koji su zanemarili sigurnost. "S obzirom na ove nalaze, bit će važno za regulatore da utvrde koliko će dugo različite utrke umjetne inteligencije vjerojatno trajati, primjenjujući različite propise na temelju njihovih očekivanih vremenskih okvira", napisali su. "Naša otkrića pokazuju da će jedno pravilo za sve AI utrke - od sprinteva do maratona - dovesti do nekih rezultata koji su daleko od idealnih."

David Zhao, generalni direktor Coda Strategy, tvrtke koja se bavi konzultacijama o umjetnoj inteligenciji, rekao je u intervjuu e-poštom za Lifewire da prepoznavanje opasne umjetne inteligencije može biti teško. Izazovi leže u činjenici da moderni pristupi umjetnoj inteligenciji koriste pristup dubokog učenja.

"Znamo da dubinsko učenje daje bolje rezultate u brojnim slučajevima upotrebe, kao što je detekcija slika ili prepoznavanje govora", rekao je Zhao. "Međutim, ljudima je nemoguće razumjeti kako algoritam dubokog učenja radi i kako proizvodi svoje rezultate. Stoga je teško reći je li AI koja daje dobre rezultate opasna jer je ljudima nemoguće razumjeti što se događa."

Softver može biti "opasan" kada se koristi u kritičnim sustavima, koji imaju ranjivosti koje loši akteri mogu iskoristiti ili proizvesti netočne rezultate, rekao je putem e-pošte Matt Shea, direktor strategije u AI tvrtki MixMode. Dodao je da nesigurna umjetna inteligencija također može rezultirati nepravilnom klasifikacijom rezultata, gubitkom podataka, ekonomskim utjecajem ili fizičkom štetom.

"Kod tradicionalnog softvera, programeri kodiraju algoritme koje osoba može ispitati kako bi otkrila kako uključiti ranjivost ili popraviti grešku gledajući izvorni kod," rekao je Shea."Kod umjetne inteligencije, međutim, veliki dio logike stvoren je iz samih podataka, kodiranih u podatkovne strukture poput neuronskih mreža i slično. To rezultira sustavima koji su "crne kutije" koje se ne mogu ispitati kako bi se pronašle i popravile ranjivosti. poput normalnog softvera."

Predstoje li opasnosti?

Iako je umjetna inteligencija u filmovima kao što je Terminator prikazana kao zla sila koja namjerava uništiti čovječanstvo, stvarne opasnosti mogu biti prozaičnije, kažu stručnjaci. Rayna, na primjer, sugerira da bi nas umjetna inteligencija mogla učiniti glupljima.

"Može lišiti ljude da treniraju svoj mozak i razvijaju stručnost", rekao je. “Kako možete postati stručnjak za rizični kapital ako većinu svog vremena ne provodite čitajući aplikacije za startupove? Još gore, umjetna inteligencija je notorna 'crna kutija' i malo je objašnjiva. Neznanje zašto je donesena određena odluka umjetne inteligencije znači da se iz nje neće moći naučiti, baš kao što ne možete postati stručni trkač vozeći se po stadionu na Segwayu.”

Teško je reći je li umjetna inteligencija koja daje dobre rezultate opasna, jer je ljudima nemoguće razumjeti što se događa.

Možda je najneposrednija prijetnja umjetne inteligencije mogućnost da bi mogla dati pristrane rezultate, rekao je u intervjuu e-poštom Lyle Solomon, odvjetnik koji piše o pravnim implikacijama umjetne inteligencije.

"AI može pomoći u produbljivanju društvenih podjela. AI je u biti izgrađen od podataka prikupljenih od ljudskih bića", dodao je Solomon. "[Ali] unatoč golemim podacima, sadrži minimalne podskupove i ne bi uključivao ono što svi misle. Stoga će podaci prikupljeni iz komentara, javnih poruka, recenzija itd., s inherentnim pristranostima, učiniti da umjetna inteligencija pojača diskriminaciju i mržnju."

Preporučeni: