A Big Tech está se lixando para a sociedade — e isso inclui a democracia

Mulher loira, de terninho cinza, com microfone no rosto e as duas mãos para cima, gesticulando.

Este episódio começa com uma história pessoal: há alguns anos eu tive câncer. O tumor que eu descobri por acidente estava no meu testículo direito. Um dia, e não tem jeito bonito de contar isso, eu fui coçar meu saco e percebi que o testículo estava com uma textura lisa. Qualquer um que tenha ou já tenha tocado em um testículo (ou seja: todo mundo) sabe que testículos não são lisos, mas rugosos. Eu cometi o erro de buscar o sintoma no Google e no dia seguinte eu estava sentado na recepção do Pronto Socorro do Hospital do Câncer em São Paulo para fazer os exames de sangue, raios-x e ressonâncias magnéticas que revelariam uma semana depois que, sim, tudo indicava que era um câncer mesmo. O tratamento que eu fiz durou pouco mais de um mês e envolveu, basicamente, uma cirurgia para tirar o testículo.

Se você ficou curioso(a), a cirurgia para o câncer que eu tive chama orquiectomia e retira o testículo não pelo saco, mas por cima — a incisão é feita ali na linha da cueca. Por ela, o(a) médico(a) puxa o testículo inteiro para fora e coloca uma prótese. Quem faz orquiectomia fica para sempre com uma cicatriz como se fosse uma cesárea caída para um dos lados do corpo. A cirurgia é tão simples que você só passa uma noite no hospital — eu já passei mais tempo internado por suspeita de tuberculose1. Eu não precisei fazer nem quimio nem radioterapia e, um mês depois da cirurgia tive minha primeira alta. Como não havia metástase e o tumor era pequeno, só a retirada foi suficiente para resolver.

Foto de exames de raio-x sobre uma mesa. Ao fundo, mãos de um médico (nota-se pelo jaleco) mexendo em papéis.
Foto: Guilherme Felitti/Arquivo pessoal.

A primeira alta, aquela que determina que não existem mais células cancerígenas, não resolve o problema. O câncer é uma doença desgraçada pela resiliência. É preciso ficar atento para ver se ele volta. É por isso que existem os chamados controles: exames que você faz. No primeiro ano, os controles — tirar sangue, fazer ressonância e tirar raio-x — foram trimestrais. No segundo, semestrais. Se, ao fim do segundo ano, você continua limpo, chega a desejada segunda alta: o câncer ainda pode voltar, mas as chances agora são menores. Dá para respirar um pouco mais.

O corpo é só parte da questão. Conviver com esse medo do câncer voltar te deixa num estado de atenção (para não dizer cagaço) constante. No dia anterior à minha ida ao médico para ver se meus últimos exames antes da esperada segunda alta estavam limpos, eu fui a um show. Eu chorei do começo ao fim pelo empilhado de nervos que eu era. Eu não sei se você já questionou de verdade sua própria mortalidade. Eu já, mas não por que eu escolhi — o câncer me forçou. Não é agradável. A gente é obrigado a lembrar algo que todo mundo sabe, mas convenientemente esquece: todo mundo vai morrer. Pode ser hoje. Pode ser daqui a cem anos. Mas uma hora vem. Se você não se angustia, bonito e bonita, meus parabéns, passa no guichê para pegar sua medalha de elevação espiritual.

Eu não vou entrar em detalhes demais por aqui, afinal eu já o fiz em outros lugares. A história do câncer que eu tive não é segredo para ninguém, já até escrevi em primeira pessoa para a revista Época posando com o macacão usado para ressonâncias magnéticas e gravei podcast com a Amanda Ramalho falando da experiência. Se você tiver curiosidade, além da reportagem e do podcast, tem um texto enorme que eu escrevi e programei contando a experiência em todos os detalhes. Se eu falo sem muito rodeio da experiência toda, do humor semi-quinta série às ponderações sobre a proximidade com a morte, é por que eu acredito que falar sobre o câncer é ajudar a desmistificá-lo, já que, cedo ou tarde, é quase certo que todos nós vamos encontrá-los em nossa vida, seja como paciente ou acompanhante.

O meu câncer foi simples — na lista dos tumores menos mortais, o meu é o vice-líder, só fica atrás do tumor de tireóide. No outro lado da corda estão os piores, aqueles que matam muito relativamente — o de pâncreas é o pior de todos. O câncer de testículo é razoavelmente bem falado já que muitos atletas descobriram um: o atacante holandês Arjen Robben, o volante brasileiro Magrão, o atacante brasileiro Bruno Moraes, o jogador de basquete Nenê… O volante argentino Jonás Gutiérrez tratou o seu ao mesmo tempo que eu o meu. A cena em que ele volta a jogar pelo Newcastle após o tratamento, sob uma chuva de aplausos de todos os torcedores no estádio do Liverpool, me engasga toda vez que vejo.

O que você precisa entender é que, nesta escala de seriedade e perigo do câncer, existem os tumores mais simples e aqueles que vão avançando até o ponto em que se tornam tão enraizados em nós que tirá-los é também automaticamente nos matar. O câncer é uma doença de difícil solução por, de alguma forma, ser nós mesmos. Um tumor é formado por uma célula que, após algumas mutações, passa a se replicar de forma descontrolada. Células “sadias” têm mecanismos que impedem que isso aconteça, mas se uma das mutações for no gene responsável por esse freio, a célula deturpada não para de se multiplicar. É da natureza do câncer invadir os órgãos próximos ou distantes, a chamada metástase. Nesta toada que pode ser lenta ou rápida, alguns tumores se tornam tão grandes que a cirurgia abre o paciente para investigar seu tamanho e, ao vê-lo tão espalhado, fecha o paciente, que entra no protocolo paliativo. Se a inevitável morte vai chegar antes do esperado, que seja sem sofrimento.

É essa ideia do paciente com um tumor tão grande que a retirada significaria matar o paciente que eu quero que você guarde na cabeça.

Antes de entrar no assunto do episódio, vale aqui uma rápida pausa para um recado. A maioria dos ouvintes deste podcast é homem e jovem (leia-se até 45 anos). O tumor de testículo é o câncer mais comum entre aqueles cujo RG indica dos 18 aos 35 anos — o meu foi quando eu tinha 31. Se você ouviu isso e tem medo de passar por algo semelhante, guarde algumas dicas na cabeça: a melhor forma de detectar é sentir a textura da parede dos testículos no banho mesmo. Se você tocou e está em dúvida se é liso ou rugoso, peça ajuda. Nesses momentos de dúvida, é muito mais provável que esteja normal e você esteja só com medo. A textura lisa é inconfundível. Se esse for inegavelmente seu caso, não procure nada na internet para não aprofundar a angústia e vá para um hospital. Pode ser qualquer um, o mais próximo da sua casa. Ou marque um(a) urologista. Ele(a) poderá informar melhor se você tem algo e, se tiver, os próximos passos. Se você tiver, não se desespere. É bastante improvável que você morra deste tumor — desde que você trate, lógico. Ah, e algumas dúvidas que sempre surgem na cabeça de quem me ouve falar isso: sim, sua vida sexual se mantém a mesma. Você continuará com libido, ereções e ejaculação. Não, você não ficará impotente, assexuado ou terá que arrumar vaga de eunuco em haréns por aí (quer dizer, se essa não for sua vontade). Testículos formam um sistema redundante: se você perde um, o outro assume as funções.

No último episódio da terceira temporada do Tecnocracia a gente vai fazer uma retrospectiva de 2021 com foco em alguns episódios que rolaram neste ano, daqueles cujos efeitos deveremos sentir por um bom tempo. Esse episódio já estava pautado há meses, mas, após eu fazer uma retrospectiva clássica de 2021 no último Tecnocracia Balcão, eu percebi o quanto a pauta original e o Balcão se completavam. A cada 15 dias (às vezes mais), o Tecnocracia aborda questões pessoais, ciência, dados e alguns pitacos para mostrar como essa onda tecno-otimista com as grandes empresas de tecnologia está virando um vagalhão e periga quebrar na praia de forma violenta. Eu sou o Guilherme Felitti e, explicando melhor o que disse há pouco, quem assina a partir do plano II da campanha de financiamento do Manual do Usuário pode participar do episódio mensal ao vivo, o chamado Balcão. Ali você não apenas ouve episódios antes da publicação oficial, mas também tem a chance de me perguntar se eu sei cozinhar um polvo sem deixá-lo borrachudo, ao que eu responderia que não, por isso eu encomendo de quem saiba.

No último episódio da primeira temporada do Tecnocracia, argumentei que a briga para que a Big Tech mantivesse seu monopólio intocado tinha saído das sombras e se tornado explícita. Em 2020, a briga rastejou para fora dos círculos tradicionalmente preocupados. Em 2021, o caminho seguiu o mesmo, mas a velocidade aumentou consideravelmente. Em outras palavras: se nos anos anteriores apareceram alguns buracos na fuselagem da Big Tech, em 2021 o buraco se tornou um rombo enorme. E há um nome responsável por esse processo: Frances Haugen.

A ex-gerente de produto do departamento de integridade física vazou milhares de documentos internos e se tornou o que Luciana Gimenez chamaria de whistleblower, a assopradora de apito. A partir de setembro, o jornal The Wall Street Journal passou a publicar reportagens a conta gotas mostrando o que havia naqueles documentos, inicialmente vazados por um funcionário anônimo. Um mês depois, Haugen mostrou seu nome e rosto na TV norte-americana e organizou os documentos de uma forma que o Governo dos EUA e veículos de mídia pelo mundo todo pudessem acessar suas descobertas. Faz sentido para que a cobertura não ficasse majoritariamente focada nos EUA e ignorasse questões locais relevantes. No Brasil, quem está destrinchando os documentos são os jornais Folha de S. Paulo e Estadão e o site Núcleo. Não se sabe ao certo quantos documentos Haugen vazou. A divulgação é devagar para manter o Facebook no foco das atenções. Até aí, em termos de estratégia de comunicação para aumentar o arrasto do debate (ou seja, quanto tempo aquele debate se sustenta e não acaba abalroado e substituído pela próxima notícia), erro nenhum.

Por que a ação da Haugen é tão relevante? Há anos pesquisadoras, jornalistas e analistas estão apontando o dedo e gritando que há algo muito errado em serviços online cujo modelo de negócios é a publicidade. A gente (e eu vou usar a primeira pessoa do plural, já que o Tecnocracia e a Novelo Data estão nessa trilha desde 2018) levanta os dados possíveis, analisa, cruza com outras informações, nota comportamentos suspeitos e articula da melhor maneira para que também a análise e sua consequente conclusão sejam justas. Foi assim que apareceram as fortes suspeitas de como redes sociais impactam a saúde mental de todos, especialmente jovens, de como as plataformas não executam à risca suas regras de comunidade, de como o discurso de ódio tolerado ajuda na cooptação de jovens….

Os documentos da Haugen, pela primeira vez, provam que uma das Big Techs mais nocivas do planeta sabia de todas as consequências nefastas apontadas por pesquisadoras externas e algumas outras que a gente ainda não tinha chegado ou não tinha informação suficiente para concluir. Pior: os documentos mostram também que, de uma maneira geral, essas pesquisas não guiam as ações do Facebook. Zuckerberg decide muitas vezes contra os indícios das pesquisas internas tendo sempre o engajamento e a lucratividade do Facebook como objetivo. Em 2021 nós tivemos a confirmação que a Big Tech está cagando para a sociedade desde que esses efeitos nocivos tragam uma maior lucratividade no fim do trimestre . Em outras palavras: à Big Tech só interessa o sucesso financeiro da própria Big Tech. De bolsos cheios, as grandes empresas de tecnologia, responsáveis por provocar problemas na sociedade, deixam que a sociedade lide com eles sozinha.

Até o começo de dezembro de 2021, o que já foi revelado sobre problemas sociais provocados (e ignorados) pelo Facebook é assustador. Vamos a um resumo. Em uma das primeiras reportagens do Facebook Papers, revelou-se que o Facebook sabe que o Instagram é tóxico para a auto-estima de adolescentes, principalmente meninas. “Em um estudo de adolescentes nos EUA e Reino Unido, o Facebook descobriu que mais de 40% dos usuários de Instagram que alegaram se sentir ‘não atraentes’ disseram que a sensação começou no app. Cerca de um quarto dos adolescentes que reportaram não se sentir ‘bem o suficiente’ disseram que o sentimento começou no Instagram. Muitos também disseram que o app enfraquece sua confiança na força das suas amizades”, diz a reportagem. Mesmo com a pesquisa interna explicitando os problemas de jogar adolescentes, que ainda não têm a estrutura psíquica pronta para fugir incólume das comparações com situações fictícias (afinal, o Instagram é um grande conto de fadas com bundas empinadas, cinturas diminutas e lábios carnudos), o Facebook manteve internamente a estratégia de criar um Instagram só para crianças. O projeto só foi pausado uma semana após a publicação do WSJ. Pausado quer dizer que pode voltar a qualquer momento.

A que o negacionismo financeiro do Facebook levou? Existe uma chance não desprezível de que o Instagram tenha sido um dos principais responsáveis pelo aumento nas taxas de auto-mutilação e suicídio de adolescentes, principalmente meninas, como já falamos no Tecnocracia #40. O Facebook escolheu lucrar enquanto meninas cortavam os pulsos ou se matavam de overdose.

Homem branco, de cabelo escuro e óculos de grau, aparece no telão, enquadrado em uma tela de celular, olhando à sua direita. Ao fundo, palco azul escuro com iluminação baixa.
Adam Mosseri, atual líder do Instagram, em aparição na F8 de 2018. Foto: Anthony Quintano/Flickr.

Os Facebook Papers mostraram também que o Facebook estava ciente de discurso violento contra minorias, como muçulmanos e caxemires na Ásia, e não fez nada para evitar, assim como também sabia que havia conteúdo racista em um volume alarmante nos grupos, mas preferiu não fazer nada para se manter “neutro”, segundo o jornal Washington Post. “Pesquisadores pediram com urgência para que executivos adotassem uma reformulação agressiva do seu software para deletar posts com discurso de ódio antes que qualquer usuário do Facebook pudesse vê-los. Mas os líderes do Facebook recusaram o plano. De acordo com duas pessoas familiarizadas com o debate interno, altos executivos, incluindo o vice-presidente de Política Pública Global, Joel Kaplan, temiam que o novo sistema desequilibrasse a balança ao proteger alguns grupos vulneráveis em detrimento de outros […] Kaplan, o Republicano mais influente da empresa, era amplamente conhecido como um forte apoiador da ideia de que o Facebook deveria parecer ‘politicamente neutro’.” Parafraseando a clássica frase do Desmond Tutu de que “se você fica neutro em situações de injustiça, você escolhe o lado do opressor”, quem se mantém neutro frente ao racismo dentro da própria plataforma é o que mesmo?

Mais estarrecedor ainda é um outro documento em que o Facebook admite que só começou a se preocupar sobre justiça racial em 2020, após o brutal assassinato de George Floyd e as manifestações populares que se seguiram nos Estados Unidos. Se isso tem um impacto inegável nos EUA, onde os negros são cerca de 15% da população geral, o que dizer do Brasil, onde mais da metade é pardo ou preto, segundo a classificação do IBGE? Ao se ler as reportagens e os documentos fica-se com a impressão que a imensa maioria dos brasileiros se comunica por plataformas administradas por uma empresa que descobriu que o racismo existe e tem consequências terríveis só em 2020.

Os Facebook Papers mostraram também que o Facebook acompanhou a avalanche de conteúdo antivacina na sua plataforma, sempre combatido com medidas insuficientes para conter a disseminação de mentiras sobre vacinas. Em março, “outro documento afirmou que uma testagem inicial concluiu que cerca de 41% dos comentários em inglês sobre vacinas arriscavam desestimular a vacinação. Usuários estavam vendo comentários sobre vacinas 775 milhões de vezes por dia e os pesquisadores estavam preocupados que a grande proporção de comentários negativos pudesse influenciar as percepções sobre as vacinas”, segundo a reportagem do WSJ sobre os documentos. Durante toda a pandemia, o Facebook viu a avalanche se formando. Suas respostas nunca foram à altura. “Zuckerberg não estava pronto para adotar uma abordagem mais intervencionista contra seus usuários. Ainda que discordasse dos ativistas antivacinas, sua companhia estava comprometida a remover apenas conteúdos que oficiais de saúde alegavam ser uma ameaça iminente.” Apontar alegados efeitos colaterais de vacinas não entra nessa classificação, algo que ativistas e apoiadores de governos de extrema-direita usam até hoje para promover hesitação vacinal alegando erroneamente, por exemplo, que as vacinas contra COVID-19 são experimentais (não são).

Os documentos mostram que os sistemas para analisar posts automaticamente não funcionam bem e ainda majoritariamente excluíam comentários. “Um dos cientistas frisou que a habilidade da empresa em detectar conteúdo nos comentários era ‘ruim em inglês e basicamente inexistente para todos os outros idiomas’.”

Para deixar ainda mais absurdo, mais que permitir conteúdo que promove a hesitação vacinal os Facebook Papers também revelaram que a empresa lucrou com essas campanhas, como a quem comparava a vacinação ao Holocausto. A sociedade se tornou mais frágil com campanhas coordenadas contra vacinas, mas os bolsos do Facebook encheram ainda mais. Lucros privados, consequências públicas.

A democracia dos outros vale mais que a nossa

Uma das manifestações dessa postura omissa das redes sociais é na democracia e os ataques contra ela. Para a Big Tech, a única democracia que importa é a norte-americana e, ainda assim, com muitas ressalvas. O Facebook Papers provou que o Facebook sabia que existia a organização de um ataque terrorista (não tem outro termo para a ação) para tomar o Congresso e tentar dar um golpe de estado nas semanas anteriores ao 6 de janeiro2.

Os Facebook Papers mostraram também que a rede social sabia dos riscos de uma insurreição nas semanas anteriores à saída de Donald Trump da Casa Branca e, mesmo assim, baixou a guarda e deixou o golpe se organizar. Abre aspas para a reportagem do jornal Washington Post: “O Facebook se moveu muito rapidamente após a eleição para retirar as medidas que ajudaram a suprimir desinformações políticas. O esforço apressado para restaurá-las em 6 de janeiro não foi suficiente para impedir a avalanche de posts violentos e odiosos, mostram os documentos. Um relatório posterior da empresa concluiu que nas semanas após as eleições, o Facebook não agiu com rigor suficiente contra o movimento ‘Stop the Steal’, incentivado por aliados políticos de Trump, mesmo quando sua presença explodiu dentro da plataforma. Os documentos também fornecem evidências amplas que a pesquisa interna do Facebook durante anos identificou maneiras de diminuir o espalhamento de polarização política, teorias da conspiração e incitamentos de violência, mas, em muitas instâncias, executivos se negaram a implementar essas medidas.”

Manifestantes fiéis a Donald Trump cercam o Capitólio, ao fundo na imagem, no dia 6 de janeiro de 2021.
Foto: Tyler Merbler/Flickr.

A que o negacionismo financeiro do Facebook levou? O mundo assistiu estarrecido uma tentativa de golpe de estado na maior democracia do mundo, organizada em parte dentro da rede social que sabia dos riscos envolvidos semanas antes. Cinco pessoas morreram, centenas se machucaram e mais de 700 já foram presas e processadas. Mais que isso, o 6 de janeiro virou o passo final, a medida desesperada dos autocratas digitais caso seus planos de poder não caiam de pé.

Há outra forma de entender o 6 de janeiro. A organização da invasão foi tolerada no país onde a Big Tech mais presta atenção e trabalha para evitar problemas. Ainda assim, deu uma merda federal (literalmente). Quando não é a democracia norte-americana na linha, os cuidados são ainda piores.

Um dos documentos afirma que, em 2020, empregados e fornecedores do Facebook gastaram “mais de 3,2 milhões de horas buscando, classificando e, em alguns casos, tirando do ar informações que a companhia concluiu serem falsas ou enganosas. Apenas 13% dessas horas foram gastas com conteúdo de fora dos EUA. O Facebook gastou quase três vezes mais tempo fora dos EUA trabalhando em ‘segurança de marca’, como garantir que os anúncios não aparecessem junto a conteúdos que os anunciantes achassem questionáveis”, diz outra reportagem do WSJ. “Se minha matemática está correta, o Facebook alocou 58 vezes mais recursos para cada usuário dos EUA (são ~297 milhões) do que para cada um dos usuários fora dos EUA (~2,5 bilhões no total)”, calculou Emerson Brooking, pesquisador do Digital Forensic Research Lab, que estuda desinformação no mundo.

As citações a outros países não são melhores. Um cartel mexicano usava o Facebook e o Instagram para recrutar, treinar e pagar assassinos. O Facebook sabia e não fez nada. Abre aspas para o WSJ: “Empregados marcaram que traficantes de gente no Oriente Médio usavam o site para atrair mulheres para situações profissionais abusivas nas quais elas eram tratadas como escravas ou forçadas a se prostituírem. Os empregados alertaram que grupos na Etiópia usavam o site para incitar violência contra minorias étnicas. Eles mandaram aos seus chefes alertas sobre venda de órgãos, pornografia e ações de governos contra dissidentes políticos, segundo os documentos.”

O que fez o Facebook? “Removeu algumas páginas, ainda que muitas outras continuem a operar livremente. Em alguns países onde opera, o Facebook tem poucos ou nenhum funcionário que fala os dialetos necessários para identificar usos perigosos ou criminosos da plataforma, mostram os documentos.” No Vietnã, o Facebook “restringiu a habilidade dos seus usuários de verem os posts de Bui Van Thuan, um crítico proeminente do governo autoritário local, por nove meses no ano passado”. Para o WSJ, Thuan afirmou que o Facebook agiu após um grupo organizado pelo próprio governo enviar à empresa milhares de reclamações sobre os posts do dissidente. No Myanmar, as tentativas de moderar discurso político de ódio implodiram.

Esses casos estrangeiros expostos pelos Facebook Papers só confirmam com provas uma forte impressão que muitos pesquisadores(as) da área têm: a democracia fora dos EUA vale quase nada para a Big Tech. Ainda que o discurso de relações públicas tente demonstrar preocupação, as evidências deixam claro que as grandes empresas de tecnologia estão cagando para a democracia que não a norte-americana. Elas podem até monitorar. Agir, que é o que resolve, parece fora de cogitação.

Esse descaso pela democracia fora dos EUA não é exclusivo do Facebook: é fácil achar vídeos no YouTube em que bolsonaristas pedem explicitamente o fechamento do Congresso e do Supremo Tribunal Federal (STF). A Novelo fez um levantamento para o jornal O Globo em fevereiro de 2021 para entender o impacto deste discurso antidemocrático no YouTube. Na época, antes da CPI da Pandemia e dos ataques golpistas de Bolsonaro contra o Congresso e o STF, eram, pelo menos, 26 vídeos de discurso inegavelmente golpista no ar. Revisitei o levantamento para ver se o YouTube tinha feito algo sobre isso. Sem surpresas nenhuma, não fez. Nas semanas anteriores a 7 de setembro, na verdade, o problema piorou. Um dos vídeos mais populares, de título “Chegou a hora de fechar o STF e o Congresso Nacional” (não fica mais claro que isso) e publicado por Políbio Braga, atraiu 145 mil visualizações nos dois anos em que está no ar. Um de Fernando Lisboa, dos mais ardorosos apoiadores de Bolsonaro, atraiu 338 mil visualizações nos dois anos. O que diz a política do YouTube? As diretrizes são genéricas e nenhuma delas proíbe explicitamente discurso que incentive a dissolução armada de algum dos poderes — no caso do bolsonarismo e sua leitura deturpada do artigo 142, o Judiciário e o Legislativo. Mas mais importante que as guidelines do YouTube, o que diz a Constituição Federal? Inciso 44 do artigo 5º: “Constitui crime inafiançável e imprescritível a ação de grupos armados, civis ou militares, contra a ordem constitucional e o Estado Democrático.” O cenário não é diferente no Facebook.

Print do YouTube, do canal POLIBIO BRAGA, com um homem careca, de bigode e terno no tocador. No título, “Chegou a hora de fechar o STF e o Congresso Nacional”.
Imagem: YouTube/Reprodução.

No Brasil, pelo menos, a Constituição Federal não parece ser a legislação de maior prioridade para a Big Tech.

A Big Tech sempre defendeu que seu papel não era arbitrar o que era verdade e o que era mentira. Os serviços, alegavam as empresas, eram plataformas que acomodavam tudo da sociedade. Essa visão “clean slate” se focou nas diferentes opiniões que você encontra por aí e convenientemente ignorou que a sociedade acomoda comportamentos preconceituosos e criminosos, que também foram expressados no Facebook, no YouTube e tal. Um exemplo explícito: David Duke, um dos líderes da Ku Kux Klan, uma organização racista e terrorista que durante décadas caçou, espancou e pendurou os corpos de negros do Sul dos Estados Unidos em árvores, foi liberado para ter uma conta nestas plataformas durante mais de uma década anos. De novo: durante mais de dez anos, Facebook, YouTube, Twitter e Instagram permitiram que o líder de uma seita racista usasse impunemente suas redes, parte da maior máquina de comunicação da história da humanidade, para espalhar e cooptar seu ideário criminoso.

O que importava às redes sociais era demonstrar “isenção”, o erro fatal de dar o mesmo peso a cientistas renomados e quem mente sobre ciência. Mais que imbecil, é criminoso. Podemos concluir que o interesse da Big Tech não foi evitar que a sociedade sentisse os efeitos de discurso de ódio e a disseminação atacadista de desinformação sobre política, saúde e sociedade, mas sim manter uma boa reputação frente a políticos de todas as esferas ideológicas, inclusive aquelas que atacam a democracia.

Ao se eximir da responsabilidade de moderação, as redes sociais foram buscar na fonte melhores indicadores para mostrar aos acionistas. Onde estão os conteúdos com mais engajamento? Na raiva. Na mentira. Na campanha de desinformação. Outro documento do Facebook Papers detalha como o Facebook operacionalizou esse foco em conteúdos mentirosos e polarizantes. Em 2016, o Facebook “quebrou” o like em cinco novas reações: amor, risadinha, surpresa, tristeza e raiva. De novo quem explica é o Washington Post: “Por trás das cenas, o Facebook programou o algoritmo que decide o que as pessoas veem no seu feed para usar os emojis de reação como sinais para mostrar mais conteúdo emocional e provocativo — incluindo posts que provavelmente os deixariam bravos. A partir de 2017, os algoritmos de ranqueamento do Facebook passaram a tratar emojis de reação como até cinco vezes mais valiosos que os likes comuns, mostram os documentos internos. A teoria era simples: posts que provocavam muitos emojis de reação tendiam a manter os usuários mais engajados e manter usuários engajados é chave para o negócio do Facebook. Os próprios pesquisadores do Facebook foram rápidos para suspeitar de uma falha crítica. Ao favorecer posts ‘controversos’ — incluindo daqueles que emputeciam (tradução é minha) os usuários — poderia abrir ‘a porta inadvertidamente para mais spam, abuso e clickbait’.” A previsão foi na mosca: dois anos depois, os cientistas de dados do Facebook confirmaram que “posts que desencadeavam reações do emoji de raiva eram desproporcionalmente mais prováveis de incluir desinformação, toxicidade e notícias de baixa qualidade”. Em uma palavra mais simples: mentira.

Não é uma surpresa que, num ambiente onde bilhões de pessoas se comunicam por meio dessas regras, a lógica do feed tenha sido replicada na vida real. Visto retroativamente e com os documentos internos do Facebook, está claro que não é coincidência que as duas maiores democracias do Ocidente, onde os produtos do Facebook são brutalmente populares, os governos tenham sido encabeçados por duas figuras que a História não lembrará pela moderação: Donald Trump nos EUA, Jair Bolsonaro no Brasil. Claro, existem outros ingredientes nesses caldos, mas a comunicação por algoritmos é definitivamente um dos principais.

Para o Facebook, a polarização não é necessariamente ruim. Um documento revelado pelo jornalista Alex Kantrowitz defende que “nem toda polarização é negativa, pode ser um ingrediente necessário para a mudança social positiva”. Segundo essa lógica delirante, o alcoolismo — e todas as consequências negativas atreladas a ele — também é necessário para você melhorar depois e adotar um estilo de vida saudável.

A política segue a lógica do feed. Qual é a lógica do feed? Sempre uma novidade, algum novo atrás de reação. Caímos na armadilha de igualar políticos a entertainers (acertei a pronúncia, Luciana?). Político não tem que fazer a mais nova dancinha do TikTok. Tem que ser executor de políticas públicas conectadas com a realidade. Governo bom é governo previsível — Angela Merkel nos dá tchauzinho agora que saiu do governo e está ocupada em dormir e ler, palavras dela. O Facebook sabe que existem indícios fortes de coordenação por trás das campanhas. Foi assim no Brasil em 2018: documentos internos publicados pelo Estadão mostram que 3% das contas publicaram 35% dos posts políticos durante o período eleitoral. O número pode ser ainda maior, diz o documento vazado. Em outras palavras: o Facebook sabe quem são as contas responsáveis pela “assustadora erupção de desinformação e ódio”. E não fez nada. Outro documento publicado pelo Estadão mostra que o Facebook recomendou em março de 2021 a exclusão de um grupo de teor “‘evangélicos, pró-Bolsonaro, conspiratórios, pró-ditadura militar e pró-armas’. A recomendação era de que a página fosse removida por incitação antidemocrática”. Nove meses depois, o grupo continua no ar com quase 11 mil membros consumindo e criando conteúdo deste mesmo teor.

De novo: a Big Tech está cagando para a democracia que não a norte-americana.

Se só tolerasse comportamentos criminosos, como incitação antidemocrática e mentiras sobre vacinas na pior pandemia do século, a postura da Big Tech já seria deplorável. Mais que tolerar, Facebook e Google financiaram desinformação no mundo todo. A partir dos Facebook Papers, uma apuração da Techonology Review descobriu que o Facebook financiou, por meio do programa Instant Articles, fazendas de cliques — ou seja, páginas cujos responsáveis produziam conteúdo de baixíssima qualidade, quando não frontalmente mentirosos — apenas para atrair a atenção do público. Muitos dos conteúdos incentivavam violência contra minorias no Mianmar, por exemplo. A investigação da Technology Review descobriu que o Google fez o mesmo com AdSense tanto em sites como no YouTube.

No fim das contas, tudo se resume a grana. A postura omissa das grandes redes é uma tentativa de não alienar os produtores de conteúdo e continuar enchendo os bolsos com a porcentagem que Facebook e Google pegam de cada anúncio veiculado em suas redes. Golpistas de todo tipo enchem os bolsos e Google e Facebook também.

Em todos os cenários descritos até aqui, a resposta da Big Tech foi mais ou menos a mesma: uma postura meio blasé, meio petulante de ignorar os problemas apontados e apostar em comunicados de imprensa que enrolam, enrolam, enrolam e não falam nada. É a soberba clássica de quem, após anos agindo sem qualquer questionamento, estranha ter que dar satisfação para jornalistas e pesquisadores.

Para voltar à metáfora do começo do episódio, 2021 serviu para que abríssemos o paciente e nos assustássemos pelo tamanho da metástase. O problema é muito mais sério e tem ramificações bem mais nefastas que o imaginado. Isso vale mesmo para quem está rezando a novena há anos — eu mesmo fiquei horrorizado de ler alguns dos detalhes do Facebook Papers para esse episódio.

Os problemas que imaginávamos não são pontuais — é generalizado, estão em metástase. O que nos leva a uma dúvida relevante: o tamanho dos absurdos comprovados que continuamos a ver significa que os comportamentos e decisões, mais do que desvios acidentais, sejam parte do modelo? Empresas de internet de capital aberto cujo modelo de negócio primordial é a publicidade são capazes de fugir das decisões que levam a impactos negativos à sociedade para engordarem os próprios bolsos no fim do trimestre? Você pode ter as melhores cientistas de dados e antropólogos avaliando o impacto do produto na sociedade. Como vimos nos Facebook Papers, vale pouco quando a decisão final recai nos ombros de executivos que ignoram os achados. Com ações na bolsa, a prioridade sempre vai ser o próprio balanço e já está claro que a Big Tech achou um caminho para manter o engajamento alto. Este caminho tem consequências terríveis para a sociedade, mas, na hora da decisão, sob a pressão dos acionistas, que executivo(a) escolherá a sociedade em vez do próprio balanço, dos próprios acionistas, do próprio bônus, do próprio emprego?

Dois mil e vinte um nos faz considerar seriamente que talvez não exista um modelo de negócio para redes sociais que não incentive diretamente o discurso de ódio, a desinformação e as mentiras explícitas que defendem golpes de estado e hesitação vacinal durante a pior pandemia do século. Assim como não existe cigarro que faz menos mal à saúde ou queima de combustível fóssil que não acelere o aquecimento global. Os incentivos a quem toma as decisões são tortos e beneficiam um grupinho ridiculamente pequeno de, no máximo, poucos milhões de pessoas (os acionistas). Lucro privado para poucos, prejuízo público para todos.

Na nossa metáfora oncológica, não é que o paciente seja a rede social e o tumor represente comportamentos pontuais extirpáveis. Tumor e paciente já são um só. Não tem como distinguir um do outro. O tumor é grande o suficiente para que sua extirpação mate o paciente. O principal problema é que essa metástase não apenas enriquece o paciente, mas impacta profundamente todos ao seu redor.

Foto do topo: Heinrich-Böll-Stiftung/Flickr.

  1. Tá hipocondríaco o episódio, né?
  2. Parece que foi há tanto tempo isso. Foi ainda em 2021, o que deveria ter nos dado um indício do que seria esse ano…

Deixe um comentário

Seu e-mail não será publicado. Dúvidas? Consulte a documentação dos comentários.

3 comentários

  1. Sensacional, adorei o texto. Como a cousa parece irreversível, cabe torcer para que a metástase se volte contra quem a incentivou…

  2. eu tenho certeza que todas as pessoas com testículos que ouviram esse programa pararam de fazer o que estavam fazendo para verificar suas texturas escrotais

    1. Serviu como alerta mesmo. Acho que nunca nem tinha feito uma autoexame. Só que atacou minha paranoia aqui kkkk

O site recebe uma comissão quando você clica nos links abaixo antes de fazer suas compras. Você não paga nada a mais por isso.

Nossas indicações literárias »

Manual do Usuário