A Apple confirmou que não analisa fotos ou backups do iCloud contra imagens de abuso infantil (CSAM, na sigla em inglês), mas que, desde 2019, faz essa verificação em anexos de mensagens enviadas e recebidas pelo e-mail do iCloud. Via 9to5Mac (em inglês).
Relembrando, no início do mês a Apple anunciou que passará a analisar, no próprio iPhone ou iPad, as assinaturas de imagens marcadas para serem enviadas ao iCloud contra um banco de dados de assinaturas de imagens de abusos infantis. O recurso deve chegar no iOS 15 e, a princípio, estará limitado aos Estados Unidos. Houve forte reação de especialistas em segurança e privacidade, que pedem para que a Apple desista do recurso sob o temor de que ele seja explorado por governos autoritários para fins menos nobres.
Em nota relacionada, pesquisadores da Universidade de Princeton revelaram um estudo, iniciado há dois anos, de um sistema similar ao que a Apple está prestes a lançar. A conclusão deles é de que a tecnologia é muito perigosa: “Nosso sistema poderia facilmente ser remanejado para vigilância e censura”, escreveram o professor assistente Jonathan Mayer e a pesquisadora e candidata ao doutorado Anunay Kulshrestha. “O processo de correspondência de conteúdo poderia gerar falsos positivos e usuários maliciosos poderiam manipular o sistema para sujeitar usuários inocentes a escrutínios.” Via Washginton Post (em inglês).
