Nedavno je Apple naučnicima i bezbednosnim stručnjacima u Sjedinjenim Američkim Državama predstavio plan kojim žele na milione iPhone uređaja da instaliraju softver koji bi ih mogao da pretražuje i tako otkrije fotografije povezane sa seksualnim zlostavljanjem dece.
WhatsApp neće podržati Apple
Ali, budući da je riječ o pregledanju privatnog sadržaja na mobilnim uređajima i iCloud-u, brojni kritičari i su se oglasili u vezi Apple-ovog plana. Tako je i voditelj WhatsApp-a Will Cathcart, izrazio svoju zabrinutost na Twitter-u.
„Pročitao sam informacije koje je Apple objavio juče i zabrinut sam. Mislim da je to pogrešan pristup i prepreka za privatnost ljudi u celom svetu“, napisao je Cathcart. Dodaje da WhatsApp neće usvojiti Apple-ove mere za zaštitu dece.
Naime, Cathcart je u jednoj od sledećih objava istaknuo da je seksualno zlostavljanje dece odvratno i da je WhatsApp naporno radio na prijavljivanju i zabrani pristupa osobama koji trguju sa takvim materijalom, pa su kao rezultat toga prošle godine prijavili čak preko 400.000 slučajeva Nacionalnom centru za nestalu i iskorišćavanu decu, bez kršenja enkripcije.
„Apple je odavno trebao da učini nešto u borbi protiv seksualnog zlostavljanja dece, ali njihov pristup za koji se zalažu uvodi u svet nešto vrlo zabrinjavajuće“, ističe Cathcart smatrajući da bi se Apple trebao usredotočiti na to da ljudima olakša prijavljivanje ilegalnog sadržaja.
„Lični računari postoje već decenijama i nikad nije bilo direktive koja bi omogućila skeniranje privatnog sadržaja svih stonih i prenosnih računara i telefona na globalnom nivou u svrhu pronalaženja ilegalnog sadržaja. Tako ne funkcioniše tehnologija izgrađena u slobodnim zemljama“, zaključuje Cathcart.
Podsećamo da Apple prvo planira da pruži roditeljima alate za nadzor online komunikacije njihove dece. Tako bi aplikacija Messages skenirala poruke i mašinskim učenjem prepoznavala ilegalni sadržaj. O takvom sadržaju bi roditelji odmah bili obavešteni, bez kompanijinog pristupa sadržaju.
Nakon toga, iOS-u i iPadOS-u, omogućio bi se nadzor nad sadržajem koji se nalazi na uređajima, ali i iCloud-u. Na taj način bi se, među skladištenim podacima, tražile fotografije koje bi se mogle povezati sa zlostavljanjem dece, pa bi se podaci delili sa Apple-om i policijom.
Ideja da plan postane aktivan do kraja godine
Treći ili poslednji deo, odnosio bi se na Apple-ovu virtuelnu asistentkinju Siri i Search. Oni bi, takođe, pratili traži li netko sadržaje vezane za zlostavljanje dece, a onda bi se i to prijavljivalo. Ako kompanija ne odustane od ovog plana, on će stići do kraja godine.