É preciso banir todas as armas que localizam, selecionam e atacam alvos humanos sem supervisão de um ser vivo responsável, ou seja, as autônomas letais. E banir a pesquisa, a criação, o desenvolvimento e o uso.

— Stuart Russell, professor da Universidade da Califórnia em Berkeley (EUA), especialista em inteligência artificial e autor do livro Inteligência artificial a nosso favor: como manter o controle sobre a tecnologia (Companhia das Letras), em entrevista ao jornal O Globo.

TikTok paga menos de um salário para brasileiros transcreverem vídeos

Algumas estimativas dão conta de que até 75% dos usuários do TikTok acessam o aplicativo sem som, o que pode ser um problema para um de vídeos. A ByteDance, dona do TikTok, contornou esse obstáculo oferecendo legendas automáticas – ou assim se pensava.

Reportagem do The Intercept Brasil publicada neste domingo (3) revelou que as legendas dos vídeos em português brasileiro são feitas por um exército de trabalhadores precarizados, contratados por empresas subcontradas pela ByteDance. Recrutadores gerenciam os trabalhadores em grupos de WhatsApp, exercendo pressão para que eles aumentem a produção.

Havia a promessa de pagar até US$ 14 por hora trabalhada, mas apenas aos trabalhadores que alcançcassem uma meta diária que, realisticamente, exigiria que eles se dedicassem 20 horas por dia. Na prática, ganhavam menos de meio salário mínimo.

Não é a primeira, nem a segunda – e provavelmente não será a última vez – em que “inteligência artificial” é usado como eufemismo para trabalho precarizado. Via The Intercept Brasil.

Cientista de dados da IBM, negro, é preso por reconhecimento de foto

Raoni Lazaro Rocha Barbosa, 34 anos, cientista de dados da IBM, foi preso no último dia 17 acusado de ser integrante de uma milícia em Duque de Caxias (RJ). Segundo Ancelmo Góes, a prisão de Raoni foi decretada com base em reconhecimento facial, a partir de uma foto que, segundo seus advogados, não é dele. Outro detalhe que chama a atenção é que, também de acordo com os advogados, Raoni jamais morou em Duque de Caxias — ele reside em Campo Grande, a ~35 km. O caso está nas mãos da desembargadora Denise Vaccari, da 1ª Câmara Criminal do Rio. Via O Globo.

Estratégia de inteligência artificial brasileira é patética

Na sexta (9), o Ministério da Ciência, Tecnologia e Inovação (MCTI) publicou a Estratégia Brasileira de Inteligência Artificial (PDF). Ronaldo Lemos, advogado e diretor do ITS-Rio, em sua coluna na Folha de S.Paulo classificou o documento como um “trabalho de graduação universitária malfeito” e “uma reunião de platitudes e citações de dados buscados na internet”. A mim, o documento lembrou o inacreditável “plano de governo” (PDF) do então candidato à Presidência Jair Bolsonaro (à época no PSL, hoje sem partido) nas eleições de 2018. O que, quase dispensável dizer, é bem preocupante. Via MCTI, Folha de S.Paulo.

Inteligência artificial escreve o review de um iPhone

O Estadão conseguiu acesso ao GPT-3, um tipo de inteligência artificial (IA) desenvolvida pelo OpenAI e tida como o que há de melhor na redação autônoma de textos. O jornal colocou a IA para escrever o review do iPhone 11 Pro e… ok, é legível, mas parece ter sido escrito por alguém embriagado, além de conter erros factuais como dizer que o celular tem uma entrada USB-C (não tem) e que ele tem apenas uma câmera (tem quatro, três traseiras e uma frontal).

Review de celular é um tipo de texto que pode ser adaptado para modelos automáticos, porque os dados elementares, que guiam a redação, podem ser estruturados. A brincadeira de 1º de abril deste ano aqui no Manual é um rascunho rudimentar nesse sentido, embora não tenha nada de IA. O desafio do Estadão/GPT-3 é de outra natureza, e talvez a melhor saída esteja num meio termo entre as duas coisas — por exemplo, imagino que se incluirmos as tabelas de especificações do GSMArena na “receita”, os erros factuais básicos teriam sido evitados. Nas eleições municipais deste ano, o G1 adotou um modelo do tipo para produzir notícias de cada um dos 5.568 municípios brasileiros.

 

Google demite cientista de dados por artigo crítico à empresa

O Google demitiu Timnit Gebru, cientista de dados com um amplo trabalho na crítica a vieses discriminatórios em sistemas de inteligência artificial. A demissão ocorreu por um artigo, que ela assinou com outros cinco pesquisadores, a respeito das limitações e impactos dos modelos de linguagem de inteligência. O MIT Technology Review deu uma olhada no artigo; especialistas acreditam que o artigo traz verdades inconvenientes relacionadas à atuação do Google. Um abaixo-assinado em apoio a Timnit já conta com +1,6 mil assinaturas de funcionários do Google e +2,5 mil de acadêmicos e profissionais. Via Estadão, @timnitGebru/Twitter (em inglês).

Mais um exemplo de que o termo “algoritmo”, às vezes, também pode ser traduzido como “decisões baseadas nos vieses de quem tem poder decisório nas empresas.”

Inteligência artificial confunde careca de bandeirinha com bola e arruina transmissão de partida de futebol

https://www.youtube.com/watch?v=9zoJP2FkpgU

O Inverness Caley Thistle, time de futebol da segunda divisão da Escócia, protagonizou um episódio paradigmático das consequências acidentais do uso de inteligência artificial. Em meados de outubro, a equipe anunciou o sistema de câmera Pixellot, uma inteligência artificial “camera man”, que substituiria operadores humanos atrás das câmeras nas transmissões das partidas do time pelo Escocêszão. A lógica desse trabalho, afinal, é relativamente simples: basta que a câmera acompanhe a bola, certo?

Só não contavam com a careca do bandeirinha no jogo do Inverness contra o Ayr United, no dia 24 de outubro. Aos “olhos” da inteligência artificial, a cabeça do auxiliar de arbitragem era interpretada como uma bola de futebol e… bem, isso meio que arruinou a transmissão robótica. Via IFLScience (em inglês).

O site recebe uma comissão quando você clica nos links abaixo antes de fazer suas compras. Você não paga nada a mais por isso.

Nossas indicações literárias »

Manual do Usuário