Nakon mnogo protivljenja od strane kritičara i korisnika, Apple odgađa svoje mjere protiv zlostavljanja djece.
U kolovozu je tehnološki div prvotno najavio novu politiku koja koristi tehnologiju za uočavanje potencijalnih slika zlostavljanja djece u iCloudu i porukama, ali zabrinutost je uslijedila. Stručnjaci su upozorili da će, iako je Apple obećao privatnost korisnika, ta tehnologija u konačnici dovesti sve korisnike Applea u opasnost.
U petak je Apple rekao da će u potpunosti odgoditi uvođenje tehnologije kako bi napravio poboljšanja i u potpunosti osigurao privatnost korisnika.
"Na temelju povratnih informacija od kupaca, skupina za zagovaranje, istraživača i drugih, odlučili smo odvojiti dodatno vrijeme u nadolazećim mjesecima za prikupljanje ulaznih podataka i uvođenje poboljšanja prije objavljivanja ovih kritično važnih sigurnosnih značajki za djecu," rekao je Apple u ažuriranu izjavu na svojoj web stranici.
Tehnologija za otkrivanje materijala seksualnog zlostavljanja djece trebala je postati dostupna kasnije ove godine u uvođenju iOS-a 15, ali sada nije jasno kada će i hoće li ova značajka debitirati.
Nova tehnologija radila bi na dva načina: prvo, skeniranjem slike prije nego što se sigurnosno kopira na iCloud. Ako ta slika odgovara kriterijima CSAM-a, Apple bi primio te podatke. Drugi dio tehnologije koristi strojno učenje za prepoznavanje i zamućivanje seksualno eksplicitnih slika koje djeca primaju putem poruka.
Međutim, nakon objave nove politike, zagovornici privatnosti i grupe rekli su da Apple u biti otvara stražnja vrata koja bi loši akteri mogli zloupotrijebiti.
Kako bi riješio ove nedoumice, Apple je objavio stranicu s često postavljanim pitanjima ubrzo nakon što je najavio CSAM tehnologiju. Apple je objasnio da tehnologija neće skenirati sve fotografije pohranjene na uređaju, razbiti end-to-end enkripciju u porukama i neće lažno označiti nevine ljude policiji.