Bluesky, Mastodon, Telegram e RSS

Adoção forçada da IA

Sou muito infeliz com o hype de IA.

Imagine o seguinte cenário hipotético:

João recebe por e-mail o resultado de seus exames testando positivo pra uma doença grave como HIV, cancêr, etc. Tanto a IA do e-mail quanto do leitor de PDF já receberam o input da informação, que poderá ser usada para treinar o modelo.

Na outra ponta, Maria, recrutadora no processo seletivo da vaga para a qual João aplicou, pergunta pra sua AI:

“João é portador de alguma doença que possa afastá-lo com frequência do trabalho?”

Eventualmente, a IA pode usar as informações daquele resultado de exame na resposta à Maria e, com isso, ela pode descartar João do processo seletivo sob alguma justificativa menos antiética/ilegal.

Essa é uma hipótese extrema para justificar minha desconfiança na tecnologia. Por isso, tenho evitado o uso de IA fora de seus sites, já até o momento não fui convencido de que há segurança na privacidade dos usuários em qualquer modelo de linguagem .

Hoje sinto um desconforto enorme ao ver empresas enfiando IA em todo software de uso diário (MS, Adobe e Google, por exemplo) o que me levou a tomar algumas medidas como: (1) desativar o Copilot do Windows / Edge (que sou obrigado à usar por questões profissionais), (2) usar conta de e-mail principal longe servidores google e (3) usar uma conta secundária do google exclusiva pra mobile – menção honrosa ao WhatsApp que está namorando a ideia de enfiar IA na janela de conversa e me fazendo considerar outro mensageiro.

Nada disso seria um problema caso segurança na prestação do serviço viesse antes do lucro, mas parece que isso não é um tópico relevante pra quem tem poder de decisão.

E você, como sente-se com essa adoção forçada da IA promovida pelas big techs?

3 comentários

3 comentários

  1. Olha, embora existam sim muitos questionamentos sobre privacidade e segurança nessas IAs do mercado, o cenário que você apresenta não é plausível, mas não que as empresas não seriam capazes de fazê-lo, mas sim por limitações técnicas, de custo e até de segurança mesmo. Para esse cenário aí funcionar, seria preciso que não houvesse nenhuma segregação entre os dados dos usuários desse serviço de email, permitindo que você perguntasse à IA e descobrisse: “o que consta no último email que o presidente do senado enviou?” ou “onde o presidente do Bradesco esteve ontem à noite?”, e isso obviamente vai contra os interesses das empresas, até para evitar que surjam novos Luigi Mangione. Então, existem sim preocupações pra gente ficar atento, mas esse nível de integração, mesmo que em teoria possa existir dentro da própria Google, nunca será aberto para o público geral, porque seria um completo caos que todos tivessem acesso aos segredos de todos. A Google não permitiria que uma recrutadora descobrisse tudo sobre você, porque se isso fosse possível você também poderia descobrir tudo sobre ela e retribuir com violações de privacidade na mesma proporção. Enfim, só para não alimentarmos uma paranoia desnecessária.

  2. Acabei de receber o seguinte email da todoist: “Email to Todoist powered by AI 📫 – New Experimental Feature”. Faz sentido uma ferramenta de lista de tarefas ter IA? Pra mim, não.

    O que vejo é que essas empresas precisa justificar o alto investimento, então “atochar” IA em qualquer serviço/ferramenta vai se tornar tão popular quanto implementar “stories” tempos atrás.

  3. me incomoda bastante e dentro da validação biométrica, por exemplo, o hype é a biometria comportamental, que basicamente é vigilância constante + IA

    ouvi dizer q vai sair uma temporada nova de black mirror e to tentando pensar como vão conseguir imaginar algo pior do que já é a realidade