Szanowani badacze uniwersyteccy biją na alarm w związku z technologią stojącą za planami Apple dotyczącymi skanowania bibliotek zdjęć użytkowników iPhone’a pod kątem CSAM lub materiałów związanych z wykorzystywaniem seksualnym dzieci, nazywając tę technologię „niebezpieczną”.
Jonanath Mayer, adiunkt informatyki i spraw publicznych na Uniwersytecie Princeton, a także Anunay Kulshrestha, badacz z Centrum Polityki Informatycznej Uniwersytetu Princeton, napisali artykuł dla The Washington Post, opisując swoje doświadczenia z budowaniem technologii wykrywania wizerunku.
Naukowcy rozpoczęli projekt dwa lata temu, aby zidentyfikować CSAM w szyfrowanych end-to-end usługach online. Naukowcy zauważają, że biorąc pod uwagę swoją dziedzinę, „znają wartość szyfrowania end-to-end, które chroni dane przed dostępem osób trzecich”. Mówią, że ta obawa przeraża ich z powodu „rozprzestrzeniania się CSAM na zaszyfrowanych platformach”.
Mayer i Kulshrestha powiedzieli, że chcą znaleźć kompromis w tej sytuacji: zbudować system, który platformy internetowe mogłyby wykorzystywać do znajdowania CSAM ale i ochrony szyfrowania typu end-to-end. Naukowcy zauważają, że eksperci w tej dziedzinie wątpili w perspektywę takiego systemu, ale udało im się go zbudować lecz przy okazji zauważyli istotny problem.
Od czasu ogłoszenia tej funkcji przez Apple firma była bombardowana obawami, że system wykrywania CSAM może zostać wykorzystany do wykrywania innych form zdjęć na żądanie opresyjnych rządów. Apple zdecydowanie odrzucił taką możliwość, mówiąc, że odrzuci wszelkie takie wnioski ze strony rządów.
Niemniej jednak obawy dotyczące przyszłych implikacji technologii wykorzystywanej do wykrywania CSAM są szeroko rozpowszechnione. Mayer i Kulshrestha powiedzieli, że ich obawy dotyczące sposobu, w jaki rządy mogą wykorzystać system do wykrywania treści innych niż CSAM „zaniepokoiły ich”.
Apple nadal odpowiada na obawy użytkowników dotyczące swoich planów, publikując dodatkowe dokumenty i stronę z najczęściej zadawanymi pytaniami. Apple nadal wierzy, że jego system wykrywania CSAM, który będzie działał na urządzeniu użytkownika, jest zgodny z jego długoletnimi wartościami prywatności.