Apple će nastaviti sa svojom značajkom otkrivanja golotinje i zaštite djece u aplikaciji Messages za iOS 15.2, ali roditelji će je morati uključiti.
Kada je Apple prvi put otkrio svoje značajke za zaštitu djece, naišao je na prilično kritičan odgovor, što je rezultiralo odgodom planiranog uvođenja. Najveća zabrinutost u vezi s privatnošću - Appleovo skeniranje iCloud fotografija u potrazi za materijalom o seksualnom zlostavljanju djece (CSAM) - još uvijek je na čekanju, ali prema Bloombergu, ažuriranje Messagesa je predviđeno za izdavanje s iOS-om 15.2. Apple kaže da neće biti uključen prema zadanim postavkama, te da će se analiza slike odvijati na uređaju, tako da neće imati pristup potencijalno osjetljivim materijalima.
Prema Appleu, jednom kad se omogući, značajka će koristiti strojno učenje na uređaju kako bi otkrila sadrže li poslane ili primljene fotografije u Porukama eksplicitan materijal. Ovo će zamutiti potencijalno eksplicitne dolazne slike i upozoriti dijete ili mu dati upozorenje ako šalje nešto što bi moglo biti eksplicitno.
U oba slučaja, dijete će također imati mogućnost kontaktirati roditelja i reći im što se događa. Na popisu često postavljanih pitanja, Apple navodi da će za dječje račune do 12 godina dijete biti upozoreno da će roditelj biti kontaktiran ako pogleda/šalje eksplicitan materijal. Za dječje račune između 13 i 17 godina, dijete se upozorava na potencijalni rizik, ali se roditelji neće kontaktirati.
U istom FAQ-u Apple inzistira da se nijedna informacija neće dijeliti s vanjskim stranama, uključujući Apple, policiju ili NCMEC (Nacionalni centar za nestalu i zlostavljanu djecu).
Ove nove sigurnosne opcije za djecu za Poruke trebale bi biti dostupne u nadolazećem ažuriranju iOS-a 15.2, koje se očekuje ovog mjeseca, prema Macworldu.