— Meredith Whittaker, presidente do Signal, no palco do evento de startups TechCrunch Disrupt, em São Francisco, Califórnia.
Via TechCrunch, @TechCrunch/YouTube (em inglês).
— Meredith Whittaker, presidente do Signal, no palco do evento de startups TechCrunch Disrupt, em São Francisco, Califórnia.
Via TechCrunch, @TechCrunch/YouTube (em inglês).
O Spotify vai “dublar” podcasts, com a ajuda de inteligência artificial para manter a voz dos apresentadores, em outros idiomas. O projeto começa com episódios de três podcasts em inglês, dublados para o espanhol e, depois, francês e alemão. Não deve demorar muito para estar ao alcance de qualquer pessoa interessada. Via Spotify (em inglês).
No final de agosto, o Google organizou o Cloud Next, uma conferência para clientes corporativos. Lá, lançou (mais) alguns recursos de inteligência artificial, dessa vez voltados ao trabalho.
Um deles é o Duet AI, uma espécie de assistente para o Google Meet.
O Duet toma notas em tempo real da reunião em curso e faz resumos para atualizar quem chega atrasado. Mais que isso: ele pode “participar” de uma reunião em seu nome. Um botão no Google Agenda, ao ser clicado, manda o robô no seu lugar.
Dá até para dar instruções à IA do que você gostaria de debater nessa reunião que… sabe como é… emergência aqui… foi mal, não posso ir… e ela passará seu recado aos colegas.
A primeira coisa que me ocorreu foi um cenário em que todos os participantes de uma reunião (que provavelmente poderia ter sido um e-mail) enviam seus robôs para participarem.
O Google também. Se isso acontecer, o Google Meet detecta a presença unânime de seres etéreos (ou a falta de gente de carne e osso) e encerra a chamada, poupando o mundo de mais uma reunião.
Bom demais, não? Ou não? Pensando melhor, o mais provável de acontecer é o chefe marcar a reunião para sexta-feira, às 17h, exigir a presença personalíssima de todos os ~colaboradores, mas mandar seu robô Duet AI. “Resolvam esse pepinão aí e depois a IA me atualiza”, dirá ele, com outros termos, por seu emissário virtual.
Talvez o Duet possa ajudar a modular o tom da mensagem do chefe: “Precisamos entregar esse job ainda hoje para bater o target do mês. Meu digital assistant vai dar um help.” Bem melhor!
Viver no futuro é uma droga.
O acordo entre pessoas e empresas da chamada web 2.0 já não era dos melhores: em troca de espaço para publicar na internet, conexão e alcance, cedemos nossos dados mais íntimos para que elas lucrassem horrores direcionado anúncios invasivos.
A explosão da inteligência artificial gerativa, liberada pela OpenAI e seu grande sugador de dados da internet, piorou os termos para o nosso lado.
De maneira unilateral, as big techs que veiculam conteúdo gerado pelos usuários alteraram seus termos de uso, garantido a elas o direito de usar os nossos dados para treinar IAs.
Google, Meta e, em breve, X (antigo Twitter). Não houve grandes anúncios nem nada do tipo. Coube à imprensa e aos ativistas pró-privacidade jogar luz nessas alterações faustianas.
A Meta disponibilizou um formulário que (supostamente) permite às pessoas excluírem dados pessoais de fontes/conjuntos de terceiros obtidas ou comprados pela empresa para treinar IAs.
Note a engenhosidade do texto: em momento algum a Meta diz que os dados em suas plataformas abertas (Facebook e Instagram) estão no pacote. Você usa Facebook? Instagram? Parabéns, você está treinando as IAs da Meta.
Esse “trabalho forçado” invisível não é novidade. Há mais de uma década, o Google treina seus algoritmos de computação visual com CAPTCHAs — aqueles desafios que nos pedem para identificar pontes, faixas de pedestres e carros em pequenas imagens borradas.
Quando muito, essas empresas pagam uma mixaria a trabalhadores precarizados em países do Sul Global.
A diferença desta nova fase de exploração generalizada com a IA gerativa, é a (falta de) transparência, abrangência e escala.
Até então, as big techs “apenas“ lucravam com os nossos dados. Agora elas querem mais que isso; querem nos usar para criar novos produtos que, depois, pagaremos para usar.
Na melhor tradição do Vale do Silício de pedir desculpas em vez de por favor, no início de agosto a OpenAI disponibilizou um documento ensinando a barrar o robô deles de acessar um site.
Ótimo, mas só agora? Depois de a empresa sugar toda a web para treinar seus grandes modelos de linguagem (todas as versões do GPT)?
Inteligências artificiais gerativas, como o ChatGPT, são, em essência, imitadores descerebrados daquilo que seus donos enfiaram no modelo. Você reúne e processa uma tonelada de conteúdo (em geral, alheio) e o robô vomita frases que aparentam (e, com frequência, fazem) sentido, ainda que incorretas ou fantasiosas.
Quem tem sites não ficou muito contente de ver seu material apropriado por uma empresa com fins lucrativos e ambições megalomaníacas, cujo objetivo é, entre outros, substituir esses mesmos sites por chatbots.
Em alguns sites muito grandes, como Reddit e Twitter, digo, X, o sucesso avassalador do ChatGPT juntou-se à ganância de executivos para servir de bode expiatório à tomada de decisões hostis aos usuários, como fechar APIs públicas e destruir aplicativos de terceiros.
A OpenAI, mais uma vez, muda de postura no momento em que tem a dianteira de uma questão sensível à concorrência do setor de IA — a mesma estratégia do seu lobby em regulação.
No documento, a empresa diz que seu “crawler” (o tipo de robô aspirador de conteúdo alheio) já filtra páginas que contêm informações pessoais identificáveis, como se isso fosse trivial ou garantido. Diz, ainda, que “permitir que o GPTBot acesse seu site pode ajudar os modelos de IA a se tornarem mais precisos e melhorar suas capacidades gerais e segurança”. Ótimo, mas para quem?
Para bloquear o crawler da OpenAI, inclua essas linhas no arquivo robots.txt
na raiz do domínio:
User-agent: GPTBot
Disallow: /
Se a OpenAI vai respeitar isso? Impossível saber. Quem tem dinheiro e mais coisas em jogo não confia na benevolência de Sam Altman e companhia e, em vez disso, convocou uma legião de advogados para levar a discussão à Justiça.
É o caso do maior jornal do mundo, o norte-americano New York Times, que cogita processar a OpenAI.
Certos problemas ainda se resolvem melhor com os bons, velhos e falhos seres humanos.
Uma atualização de março de 2023 nos termos de uso do Zoom, popular aplicativo de videochamadas, colocou a empresa na defensiva nesta segunda (7).
Alguns sites acusaram o Zoom de estar usando dados dos usuários para treinar modelos de inteligência artificial, sem dar a chance de rejeitar a cessão de dados para essa finalidade.
É verdade, mas uma verdade menos maquiavélica do que algumas manchetes levam a crer.
A celeuma está centrada em duas cláusulas:
“Dados gerados por serviços”, os que são usados de maneira compulsória, são “quaisquer dados de telemetria, dados de uso do produto, dados de diagnóstico e conteúdo ou dados semelhantes”.
Em outras palavras, nada relacionado ao conteúdo do usuário — videochamadas, arquivos ou mensagens de texto —, apenas metadados que, regra geral, empresas comerciais e até algumas não-comerciais usam para aprimorar o serviço, identificar falhas etc.
Os recursos do usuário, previstos na cláusula 10.4, podem ser usados para treinar IAs, mas apenas com o consentimento explícito do usuário.
Ao entrar em uma chamada em que esse uso é possível (ele precisa ser ativado previamente pelo anfitrião ou empresa), um aviso é exibido com a opção de deixar a sala, caso a pessoa não concorde com a cessão de dados para treinar IA.
Smita Hashim, diretora de produtos do Zoom, tentou apagar o incêndio de relações públicas com um post no blog da empresa. Em dois momentos, ambos em negrito para dar ênfase, ela escreveu:
Para IA, não usamos conteúdo de áudio, vídeo ou mensagens para treinar nossos modelos sem o consentimento do cliente.
Uma variação da mensagem também foi adicionada à cláusula 10.4 dos termos de uso, por ora apenas na versão em inglês, nesta segunda (7).
Em março, o Zoom lançou recursos de inteligência artificial que automatizam algumas tarefas típicas em videochamadas, como redação de um resumo da conversa/reunião, sob a marca Zoom IQ.
Desde a surgimento meteórico do ChatGPT, as pessoas aprenderam melhor o funcionamento de modelos de IA e a natureza dessa tecnologia, subproduto de quantidades gigantescas de conteúdo, tão grandes que é quase impossível trabalhar apenas com conjuntos de dados sintéticos.
Perto do que OpenAI, Google e outras fizeram — pegar dados da web aberta e de plataformas como Reddit e Twitter sem nem avisar —, a postura do Zoom me parece menos pior.
E até as piores situações têm um lado bom. A confusão com os termos de uso e IA abafou outra notícia com potencial polêmico ainda maior para o Zoom: a empresa, que cresceu horrores durante a pandemia ao viabilizar o trabalho remoto por videochamadas, vai obrigar todos os funcionários que residam num raio de ~80 km de um dos seus escritórios a trabalharem presencialmente pelo menos dois dias na semana.
Quando trabalho existe em alimentar a inteligência artificial? Muito.
Para criar padrões de análise e oferecer respostas, os programas como ChatGPT ou MidJourney (de imagens) precisam de dados detalhados, estruturados e catalogados.
Esta tradução de Jeffrey Ding (do ChinaAI) de um artigo publicado na 南风窗 (South Reviews) conta a história de mulheres chinesas sem ensino superior, com filhos e morando no campo que estão fazendo esse trabalho — normalmente mal pago, mas que tem sido importante para complementar a renda da família.
A Shūmiàn 书面 é uma plataforma independente, que publica notícias e análises de política, economia, relações exteriores e sociedade da China. Receba a newsletter semanal, sem custo.
Um escritório de advocacia da Califórnia, processou a OpenAI e o Google por infringirem direitos autorais e a privacidade no treinamento dos seus chatbots, ChatGPT e Bard.
Em outra ação, a comediante e escritora Sarah Silverman e outros escritores processaram a OpenAI e a Meta pelo mesmo motivo. Aqui, a alegação é de que as empresas usaram cópias piratas de seus livros, de repositórios como Z-Library e Biblotik, para treinarem os algoritmos do ChatGPT e LLaMA.
Com atraso, o Google liberou o Bard, seu chatbot de IA, no Brasil e nos países da União Europeia. Esse é o “ChatGPT do Google”.
O primeiro acesso é cheio de ressalvas, incluindo um pedido em destaque para não incluir “informações que possam identificar você ou outras pessoas” na conversa, e o pedido para não usar as respostas como orientação médica, jurídica ou financeira. Fiz um teste rápido e, surpresa: o Google Bard “recomenda conferir” o Manual do Usuário. Via Google.
Sintomático que, ao anunciar a xAI, sua nova empresa de inteligência artificial, Elon Musk tenha dito que o objetivo dela é “entender a realidade”. Nada mais empreendedorismo Vale do Silício do que isso: criar soluções para resolver as próprias dores. Talvez não precisasse de uma IA para isso, mas cada um joga com o que tem. Via @elonmusk@twitter.com (em inglês).
A Volkswagen lançou um comercial estrelado por Maria Rita e Elis Regina, essa uma “deepfake” ressuscitada com inteligência artificial. É a IA ressuscitando pessoas para vender carro. O futuro é agora e ele é uma distopia. Que sacanagem com a Elis… Via G1.
Em 2013, cometeram o mesmo sacrilégio com Audrey Hepburn. No caso, para vender chocolate.
Quando o governo decide regular um setor emergente, é sinal de que as coisas estão prestes a sair do controle — se já não saíram.
A União Europeia — a exemplo do Brasil — está debatendo uma lei para regular a inteligência artificial, chamada lá de AI Act.
Sam Altman, CEO da OpenAI, dona do ChatGPT, fez um tour pelo continente em maio e, revelou nessa semana a revista Time, muito lobby para modificar o texto aprovado pelo Parlamento Europeu no último dia 14.
O lobby deu certo: as IAs gerativas generalistas, como o GPT-3/4 e o DALL-E 2, não são consideradas de “alto risco” pelo texto do AI Act, classificação que demandaria mais transparência, rastreabilidade e supervisão humana.
Como disse Timnit Gebru, Altman e seus pares, os cavaleiros do apocalipse, adoram alardear que a inteligência artificial representa um risco existencial à humanidade, mas só a dos outros — a IA deles, não. Via Time, @timnitGebru@dair-community.social (ambos em inglês).
O Snapchat tem um chatbot parecido com o ChatGPT, o My AI. De diferente, tem a apresentação — ele usa um avatar de pessoa. O My AI usa o mesmo modelo de linguagem do ChatGPT.
A Snap, dona do Snapchat, disse à Bloomberg que 150 milhões de pessoas conversam com o My AI e que já trocaram 10 bilhões de mensagens. Todo esse material está sendo analisado para personalizar anúncios, e parte da publicidade será inserida no próprio My AI, como se fosse parte da conversa.
O Snapchat avisa, antes de iniciar uma conversa com o My AI, que o conteúdo ali poderá ser usado para esses fins. De qualquer forma, vale o lembrete: chatbots não são nossos amigos, são só mais uma troca faustiana que topamos fazer com a big tech. Via Bloomberg [$$$] (em inglês).
Uma pesquisa descobriu que 33–46% dos trabalhadores da plataforma Mechanical Turk, da Amazon, estão usando inteligência artificial para completar as tarefas repetitivas e enfadonhas que costumam ser publicadas lá.
O MTurk é muito usado por empresas, entre outras coisas, para treinar IAs a um custo irrisório e sem encargos trabalhistas, ou seja, caminha-se para um circuito fechado de automação de tarefas repetitivas/enfadonhas. É a revolta dos precarizados usando as “armas” dos seus empregadores, hehe.
O pesquisador Manoel Ribeiro, um dos autores do estudo, alerta para o risco de que o treinamento de novos conjuntos de dados com IAs perpetue vieses e ideologias já existentes. Via @manoelribeiro/Twitter (em inglês).
+350 executivos, pesquisadores e engenheiros envolvidos com inteligência artificial.
A carta aberta acima (inteiro teor) foi publicada pelo Centro de Segurança da IA. A brevidade é intencional, tem por objetivo reunir no mesmo coro vozes preocupadas que talvez discordem em detalhes, mas encaram a emergência da IA como uma ameaça.
Há nomes de peso ali, como os de Sam Altman (CEO da OpenAI), Demis Hassabis (CEO do Google DeepMind) e Geoffrey Hinton e Yoshua Bengio, pioneiros em redes neurais e tidos como “pais” da IA moderna. Via New York Times (em inglês).