Anúncio Black Friday: Assine a NordVPN com 72% de desconto

Aparentemente, o que acontece no seu iPhone não fica mais só no seu iPhone

Foto de um outdoor em um prédio, onde se lê, em inglês: “O que acontece no seu iPhone, fica no seu iPhone.”

A Apple anunciou novos recursos de prevenção a abuso infantil em seus produtos que chacoalhou a comunidade de segurança digital. Por ora, eles serão limitados aos Estados Unidos.

São dois. No primeiro, crianças que usam o iMessage e têm seus iPhones vinculados a um responsável, ou seja, compartilham uma conta familiar, terão imagens trocadas pelo app de mensagens monitoradas por uma inteligência artificial capaz de detectar imagens contendo nudez. Ao detectar uma do tipo, a criança receberá um alerta da Apple e, caso tenha menos de 13 anos, seu responsável será avisado.

A outra medida afeta imagens e fotos de todos os usuários que usam o iCloud para armazená-las. Um algoritmo rodando no próprio dispositivo (iPhone, iPad ou Mac), buscará por imagens que batam com as assinaturas de um banco de dados de pornografia infantil. Embora o processamento seja local, ou seja, executado no próprio dispositivo, não na nuvem, só estarão sujeitas à análise fotos que estiverem marcadas para serem enviadas ao iCloud. Quando um número mínimo e não especificado de imagens compatíveis com as do banco de dados for detectado, um funcionário da Apple revisará essas imagens e, se elas forem mesmo ilegais, encaminhará o caso à autoridade competente.

A Apple detalhou as novidades nesta página, e o método de análise das imagens usando assinaturas (“hashes”), ou seja, sem analisar o conteúdo em si das imagens, neste documento.

Quase desnecessário dizer que as reações negativas nada têm a ver com a matéria, ou seja, com o combate à pornografia e exploração infantil. Criar, compartilhar e consumir esse tipo de conteúdo são atitudes execráveis que devem, sim, ser combatidas com afinco.

O problema das soluções propostas pela Apple é que elas, na prática, criam um “backdoor” na criptografia de ponta a ponta do iMessage e implantam um sistema de vigilância ininterrupta no próprio dispositivo do usuário. Várias serviços de armazenamento na nuvem, como Dropbox, Google Drive, OneDrive e o próprio iCloud, já varrem o conteúdo enviado em busca de fotos que constam nesse banco de dados; ninguém, até agora, faz isso no próprio dispositivo dos usuários.

A preocupação reside no que vem a seguir. Ao abrir exceções em seus sistemas, a Apple abre a porteira para que governos autoritários ou proto-autoritários demandem que a solução seja implementada para toda a sorte de atos “subversivos”, uma régua que varia de país para país e pode ser bastante arbitrária. A China, que já impõe uma série de condições à Apple para que ela atue no país, poderia exigir que essas exceções sejam usadas para buscar fotos de dissidentes taiwaneses ou da minoria dos uigures. Na Arábia Saudita e em outros países que criminalizam relações homoafetivas, fotos de casais do mesmo sexo poderiam ser sinalizadas.

Eva Galperin, diretora de cibersegurança da Electronic Frontier Foundation (EFF), resumiu com maestria o que está em jogo: “É impossível criar um sistema de monitoramento no cliente [dispositivo do usuário] que só possa ser usado para imagens explícitas enviadas ou recebidas por crianças.”

A reação ao anúncio da Apple foi imediata e tem sido esmagadora. A EFF publicou um longo artigo explicando por que essa é uma ideia ruim. A jornais, como o Financial Times, acadêmicos manifestaram-se contrariamente às novidades da Apple. Uma carta aberta foi publicada para reunir assinaturas de indivíduos e organizações que se opõem à medida.

No mínimo, essas exceções propostas pela Apple abrem um buraquinho na barragem da segurança e da privacidade, que há anos a empresa trata como um diferencial de mercado e, até onde se sabe, tem sustentado com sucesso. E, numa barragem, a gente sabe, um furinho sempre precede uma catástrofe. É um passo em falso que desmonta a retórica da empresa, e que causa ainda mais estranhamento quando nos lembramos de situações em que a Apple confrontou pressões pesadas para que abrisse brechas, como no caso do atirador de San Bernardino.

Foto do topo: @chrisvelazco/Twitter.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

12 comentários

  1. É meio bizarro uma empresa querer fazer papel de policia, se fosse uma feature solicitada ou uma demanda dos acionistas.

  2. Acho curioso a Apple ficar falando que o processamento é local, como se isso mudasse alguma coisa na prática. O que mudaria na discussão, se fosse processado em um servidor? Ninguém pode olhar esse código, muito menos desativar.

    Aproveitando esse causo, uma coisa que estava refletindo: meu maior problema com a devassa dos dados das Big Techs, é que o objetivo do Google e Facebook, é vender anúncios com você como produto. Modelo de publicidade que, talvez exagerando, é o que está destruindo a democracia, deixando pessoas doente e até matando gente.

    Em relação a concessão de dados para vigilância, para mim a Apple tá no mesmo saco que todas as demais: se o mercado de governo autoritário for bom, fazem concessões. Tim Cook já largou o “idealismo” quando teve a questão em Taiwan, só peitou os EUA porque fez sentido no cálculo.

    Não sou muito idealista, de ver coisas como privacidade ou código aberto como fins em si. As concessões dependem dos efeitos e a Apple, quando se fala de monitoramento para “segurança”, já tem precedentes de não ser tão paladina da privacidade.

    Desapontado, mas não surpreso.

  3. Para além de todos os absurdos que essa quebra de segurança e privacidade representa, eu fiquei pensando em algo:

    se eu fosse pai, eu ficaria realmente preocupado em imaginar que uma inteligência “artificial” está monitorando as fotos de meus filhos — e ficaria ainda mais assustado com a possibilidade dessa inteligência “artificial” procurar ativamente por imagens de nudez infantil

    sério, isso é perturbador: “uma empresa na califórnia está constantemente procurando por imagens dos meus filhos nus”

    muita gente considerará legítima a função para evitar abusos — e não percebem que a tecnologia é abusiva por si só

    ênfase, aliás, nas aspas para o “artificial”: querem fazer crer se tratar de algo que transcende o universo da política, da disputa e, sobretudo, do erro. Inteligências “artificiais” são todas — não é como se nossa própria maneira de perceber, significar e entender o mundo fosse “natural” e não socialmente construída e condicionada. Se é assim com a gente, é assim de forma ainda mais intensa nas tais inteligências “artificiais”.

  4. Sempre começa assim: pedofilia, terrorismo, crime organizado… aí o gado vai aceitando essas “pequenas restrições”, afinal, “não tenho nada a esconder”.

    Aí quando vai ver a merda não tem mais volta. 1984.

    Já estou em processo de migração da apple, isso aí foi só pra acelerar a troca do iphone mesmo.

    1. Eu estava em processo de migração PARA Apple, e fiz uma parada total agora. Obviamente, não vou ter grana (nem paciência ou ânimo) pra simplesmente me desfazer do hardware que acabei de comprar, mas estou abandonando o iCloud especificamente, e passei a sincronizar/fazer backup do iPhone com o computador, em vez de usar a nuvem (iCloud). Parece* que isso vai ser suficiente por enquanto, ou pelo menos é o melhor tradeoff para mim na balança privacidade X comodidade.

      *parece porque eles relatam que quem não usa iCloud não seria afetado, mas sabemos que isso é só discurso, não há garantias.

  5. O próprio hash, até onde se sabe, não é uma técnica infalível, pois dois blocos de informações podem ter o mesmo hash. Podem comprovar isso neste estudo: https://ad-pdf.s3.amazonaws.com/papers/wp.MD5_Collisions.en_us.pdf

    “A collision is when you find two files to have the same hash. The research published by Wang, Feng, Lai and Yu demonstrated that MD5 fails this third requirement since they were able to generate two different messages that have the same hash.”

    Isso já desaba a ideia de ter um sistema de rastreamento automatizado perfeito, mas que, no entanto, poderia ser desmascarado na revisão humana do conteúdo.

    Agora a segunda: isso não abriria o precedente de hackers plantarem evidências em dispositivos alheios? Um hacker invade um telefone, planta imagens maliciosas e consegue o álibi para prender preventivamente pessoas inocentes? Claro que é completamente possível de se comprovar que uma prova foi plantada por meio da forense, mas até que se faça isso você destruiu a imagem de uma pessoa e sem falar que essa investigação (altamente especializada) pode não estar a disposição do acusado tão facilmente. Afinal, quem iria investigar a inocência de um pedófilo estuprador que tira foto de crianças?

    1. De onde você tirou que será usado MD5 para a verificação? Há anos ele é tido como inseguro e seu uso é totalmente desaconselhado. Para isso, o SHA256/512 são usados. Não existem colisões possíveis, como ocorreu no MD5.

      1. Não disse que vão usar MD5, só usei ele como exemplo de que essas buscas por hash podem não ser 100% confiáveis

    2. O próprio hash, até onde se sabe, não é uma técnica infalível, pois dois blocos de informações podem ter o mesmo hash.

      Em termos práticos, isso nem é um problema, ja que é um falso positivo: se forem verificar e não tiver nada criminoso, beleza. O problema de usar hash MD5, é falso negativo: basta mudar 1 pixel e já era, o criminoso se livrou do sistema.

      Mas pelo que entendi, é algo mais sofisticado, não algo tipo MD5 para senhas.

O site recebe uma comissão quando você clica nos links abaixo antes de fazer suas compras. Você não paga nada a mais por isso.

Nossas indicações literárias »

Manual do Usuário