Fundo azul, com uma chamada para um PlayStation 5 no centro. À esquerda, a frase “Ofertas de verdade, lojas seguras e os melhores preços da internet.” À direita, “Baixe o app do Promobit”.

Moderação: o que Big Tech pode fazer e o que é melhor nem fazer

Foto de cima, visão isométrica, dos advogados de defesa no julgamento de Nuremberg, em 1945.

O dicionário Houaiss define “moderação” como o afastamento de todo e qualquer excesso ou a virtude de permanecer na medida exata. Qual é a medida exata? Tradicionalmente quem define isso somos nós (você sabe quanto beber antes de passar daquela linha que tornará os próximos dias imprestáveis). Quando o auto-julgamento falha ou há discordâncias severas entre os pontos de vista, existem alguns acordos que todos nós assinamos metaforicamente para que possamos conviver com o mínimo de harmonia numa sociedade. São os chamados pactos civilizatórios. Isso existe desde que o ser humano se percebeu como tal, mas desde pelo menos o século XVIII a.C. passamos a estruturar e “colocar no papel” (ou no pergaminho) algumas regras mais importantes.

Em diferentes momentos da humanidade, o que era permitido e o que era proibido variou. Você nem precisa saber onde ficava a Mesopotâmia para lembrar que lá, há um tempo, um imperador chamado Hamurabi baixou um código que, pela primeira na história, tentava ordenar as relações sociais. O tal Código de Hamurabi tinha 281 leis, escritas pelo método cuneiforme em um pedaço de basalto1 — taí outra coisa para você ver no Louvre depois de se estapear com turistas por uma visão rápida e tremida da Mona Lisa. Você certamente se lembra do Código de Hamurabi pela severidade de algumas punições definidas para quem infringisse suas leis. Se você acusava alguém de homicídio e não conseguia provar, a lei permitia a sua morte. Se você invadisse uma casa que não era sua, o dono tinha permissão para te matar e te pendurar de ponta cabeça na frente da casa. E se você cegar uma pessoa, essa pessoa tem o direito de te cegar. Aposto que, ao falarmos em Código de Hamurabi, você repetiu mentalmente o “olho por olho, dente por dente”.

As regras valem para qualquer tipo de interação social. Mas, a partir do momento em que a mídia de massa permitiu uma comunicação em maior escala entre milhões de pessoas, foi preciso garantir que as regras seriam seguidas, além de introduzir novas. Canais de TV, por exemplo, são monitorados nos EUA pela Federal Communications Commission (FCC) para obedecer não apenas as leis da sociedade, mas também regras específicas para a mídia. Palavrões ao vivo, por exemplo, são punidos com multas. Quem fica sob os holofotes aqui são os canais de TV, os jornais, as editoras, todos em um modelo bastante centralizado. Em termos de escala, esse monitoramento de 1-N (um para muitos) ou 10–N tem suas dificuldades, lógico, mas é factível.

O problema da moderação online começa quando a internet aumenta consideravelmente essa escala no modelo de comunicação N-N. O trabalho de moderar centenas de milhões de posts por horas é hercúleo – na real, nem o próprio Hércules daria conta. O que fazer, então? De quem é essa responsabilidade? Quais são os perigos de deixar a Big Tech arbitrar o debate? Isso quer dizer que elas não precisam fazer nada? E, principalmente, quais medidas simples já poderiam ter sido tomadas e ainda não foram?

É disso que a gente vai falar hoje neste episódio. Você já deve ter percebido que as coisas não estão como normalmente são. Hoje, o Tecnocracia e o Guia Prático se misturaram para testar um novo formato que junta tanto a opinião como a entrevista. Como vai funcionar: a gente vai introduzir o tema com mais profundidade (o lado Tecnocracia) e depois vamos entrevistar alguém que entende do assunto. Nosso convidado hoje é o Francisco Brito Cruz, diretor-executivo do InternetLab, organização que estuda os impactos da internet na sociedade brasileira. A entrevista dele está no podcast e foi transcrita na íntegra, caso prefira lê-la.

Em 2021, eu ganhei uma bolsa do InternetLab para estudar campanhas de coordenação política e campanhas de desinformação no YouTube.

A moderação pressupõe que não existe discurso 100% livre. Em nome da civilidade, é bom que não se possa falar qualquer bobagem que vem à cabeça. O mestre Millôr tinha uma coluna no Pasquim em plena ditadura militar cujo título já resumia: “livre pensar é só pensar mesmo”. Essa “liberdade” no discurso de grupos que criticam a moderação (quase sempre nos extremos, quase sempre na direita – taí o PCO para evitar o “todos”) não existe. É um conceito importado da Primeira Emenda da Constituição dos EUA, mas já falamos aqui no Tecnocracia #35 que, no Brasil e na maior parte do mundo, a legislação é menos permissiva nesse aspecto, uma lição que defensores do discurso (muitos alinhados ao presidente Jair Bolsonaro) estão aprendendo com a Polícia Federal batendo cedinho em suas portas. Enaltecer e defender grupos responsáveis por ataques e com valores atrelados a genocídios de rivais no Brasil é crime.

Desde o fim da Segunda Guerra Mundial, a Alemanha tem uma política severa que impede a defesa do nazismo. Como principal perpetrador dos horrores do nazismo, a Alemanha entendeu que existem inevitáveis consequências práticas advindas da defesa e articulação verbal teórica de ideologias baseadas no extermínio de inimigos. Enquanto um grupo ligado ao libertarianismo defende que o mercado de ideias tem que ser livre para comportar até as mais horrendas e nefastas, a Alemanha, após entender o papel que teve no genocídio de mais de 6 milhões de judeus, homossexuais e ciganos durante o Reich, decidiu que até mesmo tolerar a verbalização teórica do horror é passar da linha.

Os grupos mais atingidos pelas políticas de moderação (de novo, quase sempre alinhados à extrema-direita) costumam chamá-las de censura. Sempre que um vídeo ou um tweet em que Bolsonaro ou seus asseclas mentem sobre a pandemia e a vacinação é derrubado do YouTube ou marcado como enganoso no Twitter, a turba online atrelada ao bolsonarismo (tal qual faz parte a norte-americana ligada ao trumpismo) grita “censura”. Não é: é manter o pacto civilizatório de pé. Como bem define a pesquisadora especializada em campanhas de desinformação, Joan Donovan da Universidade de Harvard: “O que parece censura para alguns é apenas gerenciamento de marca responsável para outros.”

O que nos leva a outro ponto: assim como moderação não é censura, as consequências de quebrar regras ao usar sua liberdade de expressão não é, necessariamente, “cancelamento”. É responsabilização. Ninguém proibiu o sujeito que clama por liberdade de expressar uma opinião merda ou criminosa. Se expressou, é bom que lide com as consequências do uso desta liberdade. A discussão é longa, mas agora não é hora: um dos Tecnocracias do ano vai falar sobre isso.

O nosso foco neste episódio é entender o que a Big Tech pode e faz, pode e não faz e o que não tem nem que querer ou poder.

Definir o que é verdade e o que é mentira é uma tarefa bastante complicada e, dependendo da situação, uma coisa pode virar outra. Dois exemplos práticos para a discussão não ficar muito etérea. O primeiro: no começo da pandemia, com todo mundo ainda confuso, ainda não existia um consenso científico sobre a efetividade da máscara no controle da pandemia. Àquela altura, defender o uso de máscara significava ser anticiência? Difícil falar. Com o avanço das pesquisas nos meses seguintes, notou-se uma clara relação entre o uso de máscara e a contenção da disseminação da COVID-19. Mas, durante uns bons meses, não se tinha essa certeza.

Outro exemplo exige uma explicação rápida sobre como funciona o jornalismo: às vezes alguém dá uma notícia de impacto que ninguém ainda publicou. No jargão, é o chamado “furo”. Num primeiro momento, a notícia pode ser tão bombástica que pode-se ter a percepção de que aquilo é mentira. Por exemplo: o primeiro jornalista a cravar que o Neymar tinha decidido sair do Barcelona em julho de 2017 para ir ao PSG foi Marcelo Belcher. Parecia algo improvável e, durante semanas, a notícia foi recebida com ceticismo e um bocado de críticas. Mas era verdade. Duas semanas depois, lá estava o Neymar em Paris. Para cada furo do nível do Neymar no PSG, existem outros que erram a notícia, o que o jornalismo chama de “barrigada”. Em toda escola de jornalismo e mesa de bar de jornalistas, esse assunto sempre cai no exemplo da Escola Base. Em 1994, o jornal Folha de S.Paulo publicou reportagem afirmando que crianças de uma escola na Aclimação, em São Paulo, estavam sendo abusadas sexualmente, usando como fonte declarações de duas mães de alunos. A investigação mostrou que a acusação era falsa e o caso foi engavetado. O estrago na vida das donas da escola já tinha sido feito2. Alguns dos envolvidos já morreram sem ter visto o processo que moveram chegar ao fim.

O ponto principal aqui: definir o que é verdade ou mentira é uma senda bastante perigosa. É bom que Google, Facebook, Twitter e afins, sozinhos, não decidam o que é verdade ou mentira. É uma responsabilidade enorme para ficar exclusivamente nas mãos de empresas que já deram exemplos, um atrás do outro, de péssimo julgamento ético e/ou moral. Sob severas críticas nos últimos anos, o Facebook tentou aplacá-las criando em 2019 um conselho independente para questionar as ações da empresa. Três anos depois, o conselho foi esvaziado e sua atuação foi incapaz de mudar políticas relevantes da rede social.

Em nome da “isenção”, da responsabilização e da facilidade, a Big Tech gosta de ser vista e propagandeia seu papel como plataforma: aberta a qualquer um para que qualquer assunto seja publicado. Nesse papel, cabe à empresa apenas manter o serviço rodando. Como bem definiu a reportagem do Financial Times sobre Joe Rogan e o Spotify: “as plataformas gostariam de ficar fora (de moderação de conteúdo). Mas isso não vai acontecer e, se algo acontecer, só tende a aumentar.” Ou seja: não adianta fechar os olhos e rezar para desaparecer, que é, no geral, a forma como a Big Tech tem abordado o problema.

O que acaba arrancando a Big Tech dessa posição de silêncio estratégico é a pressão do público e, consequentemente, dos anunciantes. Pressionadas, elas são obrigadas a tomarem decisões de veículos e se responsabilizarem pelo conteúdo que distribuem. Nenhum exemplo é melhor para ilustrar essa tendência do que Rogan no Spotify. As mentiras sobre vacinas veiculadas em um episódio foram respondidas pelo Spotify com a ladainha tradicional de “não arbitramos” e “somos uma plataforma”. No blog oficial do Spotify, o CEO Daniel Ek cravou: “É importante para mim que nós não assumamos a posição de sermos censores de conteúdo”. Dias depois, porém, a descoberta de episódios em que Rogan usa a “n-word” forçou o Spotify a ser veículo e “negociar” (várias aspas) a deleção de +70 episódios, ou seja, tomou a posição que o Ek chamou erroneamente de “censores”.

“As relações entre as personalidades da mídia e as redes que transmitem seus conteúdos sempre foi frágil. Mas se tornou ainda mais complicada nos últimos anos, conforme empresas de tecnologia desesperadas para crescer começaram a pagar estrelas diretamente por conteúdo. Esses acordos as tornaram mais parecidas com estações de rádio e TV de antigamente – escolher atos populares, pagar generosamente por seus trabalhos e assumir maiores responsabilidades pelos resultados – e menos como as plataformas neutras que elas já alegaram ser”, descreve bem o jornal New York Times na reportagem sobre Rogan. Essa relação difícil se aplica também aos produtores de conteúdo que não recebem essa grana enorme, gente que cria um canal para falar sobre como fazer risoto de rã e acaba atraindo publicidade e ganhando dinheiro – para si e para o Google. Há um risco de as plataformas alienarem seus criadores de conteúdo, o que seria terrível em termos financeiros. Isso ajudaria a explicar a postura omissa de execução das próprias políticas.

Tá com dúvidas? Nós também. O Chico vai nos ajudar.

Foto do topo: Raymond D’Addario/Wikimedia Commons.

  1. Ao contrário de tantas outras coisas, o Código de Hamurabi está literalmente escrito na pedra.
  2. Tem um livro sobre o caso chamado Escola Base: Onde e como estão os protagonistas do maior crime da imprensa brasileira, escrito pelo jornalista Emílio Coutinho e publicado pela editora Flutuante.

Deixe um comentário para Ed Cancelar resposta

Seu e-mail não será publicado. Dúvidas? Consulte a documentação dos comentários.

3 comentários

  1. Tema interessante, bastante atual e necessário. Quanto ao formato, confesso que não me agradou muito. Tecnocracia é um dos poucos podcasts que acompanho regularmente por ter uma linha de raciocínio, provavelmente por ser falado somente por uma pessoa, ter um roteiro – e umas boas piadas de tiozão. Entrevistas geralmente são mais livres e tem suas vantagens, mas podem ser um pouco “caóticas”. Parabéns pelos Tecnocracias e pelos conteúdos sempre relevantes!

    1. Valeu, Ed!

      O formato original do Tecnocracia não vai embora, mas é sempre bom testar de vez em quando alguns novos formatos para ver como é possível melhorá-lo.

      Abs!

Compre dos parceiros do Manual:

Manual do Usuário