“Não acho bom que a única forma de moderação de conteúdo seja a remoção”: Uma conversa com Francisco Brito Cruz, do InternetLab
Um dia, todos os programas do podcast Guia Prático serão transcritos. Esse dia ainda não chegou, mas decidimos transcrever esta entrevista com o Francisco Brito Cruz, do InternetLab, pela importância e urgência do tema. (Você pode ouvi-la nos podcasts Guia Prático e Tecnocracia ou assisti-la no YouTube.)
Na conversa, conduzida por mim, Jacqueline Lafloufa e Guilherme Felitti, fizemos ao Chico perguntas vitais para o que talvez seja o maior debate envolvendo tecnologia no Brasil em 2022: a moderação de conteúdo nas plataformas digitais.
Há muito em jogo, com eleições decisivas em outubro, e dado o papel das redes sociais no pleito de 2018 e em outras eleições majoritárias ao redor do mundo nos últimos anos, não será diferente desta vez.
A transcrição abaixo sofreu leves alterações para tornar a leitura mais fluída.
Rodrigo Ghedin: Olá, eu sou o Rodrigo Ghedin. Hoje estou com bastante gente. Com a Jaqueline Lafloufa, sempre comigo.
Jacqueline Lafloufa: Olá, lá Ghedin, num “Roda Viva” virtual aqui hoje.
Ghedin: Bom exemplo. Com Guilherme Felitti.
Guilherme Felitti: Olá.
Ghedin: E com Francisco Brito Cruz
Francisco “Chico” Brito Cruz: Oi gente, tudo bom?
Ghedin: O Chico é quem está no centro do nosso “Roda Viva” para falar de moderação em plataformas digitais. Então tem mais delongas — o Guilherme já fez a introdução, o contexto do assunto, que está bastante em voga, é complexo e delicado —, vamos entrar nas perguntas.
A primeira que eu tenho a fazer, Chico, é uma… que acho que direciona todo esse debate: quando a gente pede às plataformas digitais para que elas moderem o discurso que rola nelas, o que exatamente a gente está pedindo?
Chico: Essa é uma boa pergunta pra gente tentar organizar um pouco papo, Ghedin. Quando a gente pede que elas mudem o conteúdo, o que a gente está pedindo? Está pedindo que elas estabeleçam uma série de regras aplicáveis aos comportamentos e conteúdos dos seus usuários e, ao tempo, estabeleçam sistemas para aplicar tais regras.
Isso não é uma coisa nova, né? Isso acontece desde que a internet começou a pipocar com aplicações que eram abertas a conteúdo gerado por seus usuários. Então, a gente pode lembrar até dos fóruns, né? Que tinha lá no início da internet. Nesses fóruns, por exemplo — fóruns de games, de programação e tal —, lá anos 1990, que a gente começa a observar a necessidade de discussão de aplicação de possíveis regras. Mas quando a gente pedia isso naquela época, a gente estava pedindo uma atividade quase que artesanal desses moderadores ou administradores desses espaços, que é quem cria e aplica as regras. Esses administradores tinham essa tarefa, mas não tinha necessariamente um volume de casos muito grande.
O que a gente observa com as redes sociais com muitos usuários, é que a escala fica totalmente diferente. Então, a atividade de moderação de conteúdo não foi exatamente sempre a mesma, ela foi mudando com o tempo, mas acho que dá para sintetizar um pouco dessa forma: é a elaboração das regras e é a implementação de sistemas de aplicação dessas regras e, claro, avaliação, se está dando certo esses sistemas ou não.
Ghedin: Acho que escala é a palavra-chave, porque, por exemplo, o Manual do Usuário não é uma plataforma, mas tem um espaço onde os leitores se manifestam e esse espaço é moderado. Pela escala pequena, é uma moderação realizável até por uma pessoa só — no caso, eu. Agora, quando se fala em um Facebook, no Twitter, que têm milhões de mensagens por dia, o desafio se modifica completamente.
Chico: Sim.
Jacque: Eu ia complementar até um pouco com a intenção, Chico, porque a gente está falando, por exemplo, no ambiente do Manual do Usuário, onde as pessoas estão com uma intenção de concordar, ou de chegar num acordo; uma discussão saudável. Talvez a gente esteja não só uma questão de escala, mas de intencionalidade da comunicação. Às vezes você está querendo causar discórdia online. Não sei se você consegue misturar os dois aí para responder a pergunta.
Chico: Eu acho que eu consigo usando um exemplo hipotético. Eu, lá nos anos 1990, decido criar um fórum, um site, onde as pessoas vão postar receitas de bolo. E aí eu começo a perceber, logo no início, que tem pessoas que não postam receitas de bolo ou pessoas que postam receitas de bolo com ingredientes que são claramente… que não se deve usar em um bolo.
Daí eu começo a fazer uma regra: você não pode postar receitas que tenham ingredientes que possa fazer mal às pessoas, tipo um remédio, um ingrediente controlado, por exemplo, ou que você não pode postar conteúdo que não seja receitas de bolo. E aí você não pode postar conteúdo com ofensa e tal.
É engraçado, porque essas regras contemplam questões diferentes. Tem uma questão temática — receita de bolo —, tem uma questão de proteção da comunidade — do tipo não pode postar ofensa, não pode postar conteúdo que cause dano, por exemplo uma receita que vai fazer mal às pessoas e por aí vai. Isso já é bem interessante de pensar, que algumas escolhas de moderação, ou seja, algumas escolhas das políticas das plataformas e dos sistemas que vão aplicar tais políticas, elas não são necessariamente escolhas só do que é lícito ou ilícito, ou do que é danoso e do que não é danoso, mas também escolhas temáticas. “Não quero que esse tema seja discutido aqui e quero ser livre para isso.”
Daí eu criei esse site. No começo, essa atividade de fato é artesanal, de um por um. Então dá para contratar uma equipe pequena de pessoas, talvez uma ou duas pessoas, um estagiário no começo, para ir pegando esses casos e tomando decisões uma por dia, uma por semana. Quando meu site cresce, ele começa a fazer muito sucesso e as pessoas passam a postar muitas receitas de bolo ali, eu vou ter que contratar um time maior — 5, 10, 20 pessoas.
Aí o site cresce ainda mais e eu começo a virar uma sensação no Brasil. É quando eu começo a ter problema, porque percebo que essa atividade pode me custar muito se eu fizer internamente. Eu vou precisar ter um esquema, digamos assim, de gerência e aplicação dessas regras que vai ter que, por vezes, ser terceirizado, ou até vou ter que começar a desenvolver sistemas automatizados para me ajudar a tomar tais decisões, do tipo: para organizar os casos — este caso aqui vai para tal equipe especializada em receitas de bolos, este outro para equipe que olha para ofensas… A partir desse momento, a gente começa a ver que atividade deixa de ser artesanal e ela passa a ser meio industrial.
Acho que o ponto importante aí é que essa atividade sempre fez parte do produto que eu estou oferecendo, ou seja, a atividade de moderação de conteúdo no site de receitas de bolo é necessária para o produto site de receitas de bolo, assim como, Ghedin, a atividade de moderação de conteúdo nos espaços do Manual do Usuário vá a ter é uma parte do produto Manual do Usuário. Não do ponto de vista comercial só, mas do ponto de vista do que você está oferecendo para as pessoas. Na hora que vira industrial, acho que o corte é tamanho da plataforma mesmo, é quantidade de conteúdo. Na hora que vira industrial,
o negócio vira.
Tentei responder você, Jacqueline, nessa coisa dos temas, porque você começa a ter que se especializar em temas diferentes e você realmente vai ter temas diferente. É sempre importante lembrar essa história da moderação temática, até, porque faz sentido que a internet tenha sites com temas ou segmentos diferentes. Isso não é um problema. Se tem uma coisa nas regras de um site e não tem nas regras do outro, não é necessariamente um problema. Depende do que que é. Lembrando que a internet permite que espaços sejam criados de acordo com o contexto.
Só para dar um exemplo para fechar e para diferenciar moderação de conteúdo e como faz sentido que ela seja diferente, que isso seja oferecido de forma muito diferente e diversa na internet.
Quando a gente ouve música ao vivo, tem vários espaços aonde a gente pode ir: sala de concerto, show de rock e tem um barzinho de música ao vivo. (Esse exemplo não é meu, é de um colega do InternetLab, o Artur, que um dia contou esse exemplo para mim e nunca saiu da minha cabeça.) As regras em cada um desses espaços são diferentes e nenhum deles necessariamente é melhor para você ouvir música. Depende da pessoa que está escolhendo aonde ela quer ir. Às vezes você quer ir um dia em uma coisa, outro dia em outra, né?
A “moderação de conteúdo” — entre muitas aspas — de cada um desses espaços terá de ser diferente. E não necessariamente a gente está falando de regras que vão delimitar só o abuso que as pessoas podem ter. Porque um “crime” vai ser um “crime” em todas essas plataformas, em todos esses espaços, mas pode ser que no concerto de música clássica você não possa pegar, nem tocar no seu celular, e no barzinho isso é diferente. Por isso que essa atividade acaba causando confusão. Às vezes as pessoas acham que quando discutimos moderação de conteúdo, a gente está só discutindo abusos, e não é verdade.
Jacque: É interessante porque você deixa um gancho com outra questão que a gente tinha aqui para você, que é a ideia de censura, de você não ter vozes dissonantes. Eu gostei do seu exemplo da música, das temáticas, porque ele traz esse ponto, quer dizer, não estou só moderando as coisas que estão saindo dos limites legais, que você chamou de abusos, mas também coisas que estão saindo da caixinha do que vale a pena. Em geral, uma reclamação a gente tem bastante especialmente sobre política, do lado da direita, é que as plataformas estão censurando vozes dissonantes na hora de exercer essa moderação. Você acha que isso acontece, que existe esse risco, que, ou que faz parte dessa temática que tá sendo cortada?
Chico: Eu acho que quando a gente fala de censura, e realmente isso está bem bem aquecido no debate, o que me vem à cabeça é primeiro tentar entender se essa censura vem do estado, do tipo “ah, estamos ferindo a Constituição? Estamos ferindo o que existe nas leis, do ponto de vista da liberdade de expressão?” E é importante lembrar que em uma plataforma está obrigada a carregar — no Brasil, pelo menos, nos Estados Unidos também — conteúdo de qualquer usuário que seja. Não é obrigatório que a plataforma continue com o conteúdo no ar, não existe esse tipo de pretensão. Não faz sentido do ponto de vista do ordenamento jurídico brasileiro ou do exterior.
É claro que alguém pode comentar “poxa, mas a plataforma na hora que retira conteúdo do ar, um perfil do ar, ela está reduzindo o meu espaço de expressão”, mas é importante lembrar que essa é uma relação entre particulares. Não vou aqui repisar aquele argumento de “ah não, são os termos de uso privado, é o contrato privado, então não há o que o usuário dizer, a empresa pode fazer o que ela quiser que está no contrato”. Não acho que é exatamente assim também, primeiro porque a empresa tem que explicar qual o contrato, tem que aplicar o contrato de forma consistente e eventualmente ela pode abusar, ela pode passar do ponto nessa aplicação, mas não é censura do ponto de vista estatal, então é uma situação bem mais complicada. A coisa temática entra aí.
Para mim, se a gente padronizasse a moderação de conteúdo no país, a gente ia prejudicar a liberdade de expressão, por mais que a gente fizesse isso em defesa da liberdade de expressão, porque faz parte de um ambiente que protege a liberdade de expressão existir a sala de concertos, o show de rock e o barzinho diferentes, porque a gente vai se expressar de forma diferente nesse três espaços e tudo bem.
Quando até o governo federal editou aquela medida provisória que proibia a remoção de conteúdo sem ordem judicial, salvo algumas hipóteses lá, uma lista que o governo fez, o que mais me preocupava era essa tentativa de padronizar a atividade de moderação de conteúdo como se todas as plataformas do país, do site de receita até o Facebook, todas elas tivessem a moderação igual. Isso não faz nenhum sentido, isso reduz a liberdade de expressão.
Tem um ponto, Jacqueline, do que você falou, sobre o abuso e a ilegalidade. São, vamos dizer, dois conjuntos que se tocam. Tem coisas que são abusos e que são ilegais — talvez todas as ilegalidades sejam abusos —, mas nem todos os abusos são ilegalidades.
Vou dar um exemplo. Quando você faz bullying com um usuário de uma plataforma da Meta (do Instagram e do Facebook), talvez aquilo não possa ser considerado uma ilegalidade no Brasil, a depender do que é. Só que aquilo pode ser considerado um abuso mesmo assim. Tem casos como esse. O conteúdo talvez mais sintomático para isso é o conteúdo de nudez. Não necessariamente porque ele é visto como abusivo, mas é porque é um conteúdo mais de franja.
Essas plataformas escolheram não veicular conteúdo de nudez. Esse conteúdo não é ilegal, mas ele pode ser considerado um abuso, uma violação das regras. É uma escolha temática? Acho que é, mas passa também por uma discussão de abuso quando a gente percebe que essas regras para não ter nudez servem muito para prevenir abusos também. Todo mundo fala “ah, por que as plataformas não liberam a nudez?” Quando encontrei um argumento, o argumento que passa pela pelo combate, por exemplo, da exploração sexual de crianças e adolescentes, eu me sensibilizei, porque como a plataforma vai saber a idade das pessoas estão aparecendo nas fotos com nudez? É muito difícil saber exatamente a idade. É uma escolha mais simples você dizer que simplesmente não pode nudez para nenhuma idade, para nenhuma pessoa, porque aí você não precisa ficar conferindo RG de todas as pessoas que vão estar estar nuas no Instagram. Acho que isso ajuda a conter determinados tipos de abusos. Então tem algumas regras, que não são necessariamente abuso, que passam por isso, mas que também são temáticas. É um gradiente de regras, porque depende do que a gente está falando.
Guilherme: Sempre que existe algum escândalo envolvendo essas plataformas, no que diz respeito à moderação, a primeira resposta de todas as plataformas é mais ou menos a mesma: a gente não quer arbitrar o que é verdade. O que efetivamente elas estão falando com isso? E tem uma outra dúvida um pouco mais complexa que é: a partir do momento em que você tem regras e executa essas regras mesmo sob pressão, independente se sejam regras morais ou criminosas, você está arbitrando a verdade ou não?
Chico: Guilherme, essa discussão aparece quando a gente fala de informação, principalmente, porque na hora que a gente está falando de alguns abusos, estamos discutindo dano, por exemplo, a possibilidade de aquilo causar perigo. Acho que as plataformas fazem essa resposta quando são questionadas do tipo “por que você não está fazendo nada contra fake news”, que é um tipo de conteúdo específico, e muitas vezes elas — e isso acontece faz tempo no Brasil, a gente já tem vários casos — elas tiram que são redes de informação (canais, perfis) por outras regras que não têm nada a ver com desinformação.
Isso, talvez, funciona para atender determinados públicos e pressões, mas elas não estão se colocando nesse lugar do árbitro da verdade e tudo mais. Acho que isso passa pela discussão da desinformação.
Aí, quero um pouco também saber opinião de vocês, mas eu acho que é difícil responder essa pergunta sem lembrar que esse discurso de não querer ser o árbitro da verdade passa por duas coisas.
Primeiro, pelo arranjo de responsabilidade de intermediários que foi consolidado nos Estados Unidos e no Brasil, que, vamos dizer… é construído a partir da ideia de que as plataformas não têm que se responsabilizar por conteúdo que seus usuários estão postando porque aí elas não são incentivadas a tomar decisões sobre esses conteúdos de forma forte. Elas podem tomar, mas elas não têm que tomar porque elas não vão pagar pela indenização se o conteúdo causar um dano.
Isso já é um ponto a se considerar, porque elas estão acostumadas a dar essa resposta de que, “olha, não quero tomar decisão que vocês querem que eu tome, eu quero só tomar a decisão que faz sentido para o meu produto”. E é esse o discurso, e isso, é importante lembrar, protegeu durante muito tempo um esquema de liberdade de expressão mais amplo, porque isso realmente desincentiva que a plataforma fique tomando decisões sobre conteúdos que podem causar algum tipo de dano.
No Brasil, por exemplo, qual o conteúdo que as plataformas eventualmente agiriam mais, ou tirariam mais do ar, se elas estivessem incentivadas a tirar do ar? O conteúdo de crítica a políticos. Se uma plataforma tivesse que pagar qualquer indenização por qualquer político que sentisse ofendido pelo que escrevem sobre ele naquela plataforma, talvez ela retirasse tudo o que é contra aquele político daquela plataforma, inclusive críticas justas, legítimas. É por isso que esse arranjo foi construído.
A outra coisa, para responder essa pergunta (por que elas estão nessa posição?), é a Primeira Emenda [da Constituição] dos Estados Unidos. Isso não foi construído sem passar por um DNA de liberdade de expressão americano, que privilegia essa liberdade de expressão ampliada, bem diferente do que a gente tem de arranjo de liberdade de expressão no Brasil ou na Alemanha, ou em outros países.
Acho que é por isso que elas falam isso, né? “Não quero ser o árbitro da verdade e tal.” Só que a covid mudou isso né, Felitti. Você sabe bem mais do que eu, de que esse foi um ponto de virada para as plataformas terem que falar sobre desinformação porque ela ficou muito mais próxima da discussão do dano. Para as pessoas, isso ficou muito evidentes: se circular um conteúdo antivacina e uma pessoa se convencer a não se vacinar, ela estará correndo um risco de dano muito grande na vida real.
É a partir discurso do dano, o que não deixa de ser uma uma pressão sobre a ideia de liberdade de expressão que também faz sentido dentro da lógica da Primeira Emenda dos Estados Unidos, que a ameaça de dano iminente pode ensejar a responsabilização ou pode ensejar a remoção daquele conteúdo da praça pública.
Ghedin: Fazendo uma digressão, é até uma discussão que a gente já teve internamente aqui, que muitas vezes parece que é um clamor popular para que as plataformas fechem o cerco contra mentiras. O que é um negócio altamente subjetivo e, se fosse essa régua, daria margem a muitos abusos. Moderação de conteúdo em relação a fake news, acho que nunca tem essa gênese, né Chico? “Ah, a gente vai tirar mentira daqui.” Não é essa justificativa, e não deve ser essa a justificativa.
Chico: É. Se a gente fizer uma regra, não pode mentira, a primeira coisa é tentar entender quem vai decidir o que é mentira, mas0 para além de quem vai decidir, quais são os parâmetros que vão guiar essas decisões, para você tornar essas decisões consistentes. Você começa a ter que dar exemplos do que é mentira ou não para as pessoas. Você começa a ter que criar um esquema de aplicação dessa regra naquela escada industrial de que a gente estava falando. Dar previsibilidade, dar transparência para, se você está fazendo isso, de que forma, se está fazendo isso bem. E essa regra da mentira, por exemplo, explicar o que é mentira e talvez mostrar isso com casos concretos, como a gente já viu várias vezes informação, vai ser difícil, vai ser muito difícil, assim como é difícil, cada ponto das políticas das plataformas, aplicar.
Eu acho que faz sentido que as plataformas tenham determinados tipos de políticas de moderação sobre determinados tipos de desinformação. Desinformação para covid, por exemplo, ou desinformação sobre o processo eleitoral. Poxa, se alguém está dizendo que a votação vai ser um dia diferente do que ela vai ser para que as pessoas não vão votar no dia certo, talvez seja um conteúdo para ser retirado mesmo, é conteúdo que causa danos à comunidade, à sociedade, causa danos ao processo eleitoral. Mesma coisa com a desinformação sobre a fraude não comprovada no processo eleitoral, que pode causar dúvidas sobre o processo. Tem campos, digamos assim, de determinadas mentiras, que faz sentido que elas estejam nas políticas, na minha opinião, nessas plataformas maiores.
E elas estão em alguma medida, mas cada forma entende essas regras de maneiras diferentes e faz sentido que elas entendam de maneiras diferentes também, porque o conteúdo produzido nessas plataformas é diferente. Os exemplos que você vai dar para pessoas do que elas podem ou não fazer serão diferentes.
No Twitter, por exemplo, serão textos de alguns caracteres, algumas fotos, alguns vídeos, mas principalmente textos de poucos caracteres. No YouTube, é uma outra coisa. No Facebook, outra coisa. No Tik Tok, no Kwai…
Uma coisa que é interessante de pensar: o que é mais previsível, do ponto de vista da aplicação das regras, as políticas as plataformas — que muita gente falou que é muito imprevisível, e eu acho também que é difícil de entender como elas vão aplicar —, mas o que que é mais previsível, isso ou aplicação sobre o que é lícito ou ilícito de se dizer pela Justiça brasileira?
Eu acho que essa comparação é provocativa, porque ela mostra que as regras vão ser uma moldura e que a aplicação das regras não vai necessariamente implicar em decisões consistentes. Que outra precisa criar um sistema para dar consistência para fazer essas decisões e nem sempre ele será suficiente.
Eu acho, hoje — e aí é minha opinião mesmo —, que é mais fácil de você saber o que está proibido no Facebook do que você saber o que é difamação pela Justiça brasileira, porque a Justiça brasileira não tem teste, não tem exemplo; às vezes depende de quem está fazendo o processo, da qualidade de advogado e por aí vai. Isso não significa que temos que nos contentarmos com o jeito que as plataformas fazem moderação de conteúdo hoje, mas eu acho que significa a gente, justamente porque isso é muito importante, tenha que entrar numa discussão sobre o sistema, os riscos que esse sistema traz, porque na hora em que você está tomando decisões sobre milhões de peças de conteúdo por dia, você vai errar. Como você mitiga o erro? Como você detalha sistema para o usuário? O que é bom de falar para usuário? O que você tem que proteger, porque o usuário usuário mal intencionado pode usar isso contra você?
Jacque: Uma das perguntas que eu queria fazer para você, Chico, é sobre as atitudes que as plataformas têm tomado em termos de moderação. A gente tem uma das atitudes, que a gente viu recentemente, que a ideia de etiquetar conteúdo, quer dizer, algo um pouco mais brando de moderação. Em vez de eu remover remover o conteúdo, eu coloco lá uma etiqueta dizendo que “esse conteúdo fala sobre covid, veja esta página com informações confiáveis de covid” ou “essa informação é discutível”, enfim. Você acha que esse tipo de etiqueta é uma estratégia suficiente ou ela é um mínimo que as plataformas podem fazer, ou é um teste novo… Qual a sua opinião sobre etiquetas em conteúdos na hora de fazer a moderação?
Chico: Eu acho válido, Jacqueline. Não acho bom que a única forma de moderação seja a remoção. Acho isso pobre, do ponto de vista das soluções, para diversidade de problemas que a gente tem.
Vou dar outro exemplo, sobre uma outra forma de moderação que funciona para algumas coisas, que é você não mostrar o conteúdo de primeira para o usuário porque é um conteúdo sensível. Isso acontece quando tem imagem de violência gráfica. O Instagram aplica essa solução, então ele não mostra… é como se tivesse um véu no conteúdo, que você tem que tocar para ver.
Isso é uma medida de moderação, claramente. É uma regra que está sendo aplicada, que determinados tipos de conteúdo terão essa camada para o usuário acessar. Isso funciona para prevenir, por exemplo, que usuários que não querem ver aquilo, que vão se sentir mal com aquele tipo de conteúdo, não façam isso. É uma solução diferente da remoção para aquele conteúdo continuar no ar, aplicável a um problema específico.
Acho que a etiquetagem funciona para alguns problemas. Por exemplo, aquela pessoa que está falando sobre covid — refletindo junto com vocês —, mas que não é médico; ela está falando sobre questões laterais sobre covid e ela não está trazendo necessariamente as informações oficiais porque ela está comentando outros assuntos, do tipo: como é estar com covid, como foi experiência dela. Poxa, possivelmente direcionar o tráfego a partir dessa página para fontes oficiais pode ser uma ótima ideia numa crise sanitária como a que a gente está tendo. Ajuda as autoridades, é uma boa postura, é uma aplicação de uma regra que possivelmente terá um efeito positivo na sociedade.
Agora, não é sempre que a etiquetagem vai resolver. Ela resolver para alguns usuários alguns problemas. Por isso que a gente tem — eu acho — que ter uma caixa de ferramenta de modelação que seja ampla e o limite dela ser ampla é a transparência. Do tipo: você não pode ficar medidas de moderação de conteúdo, como redução de alcance, sem pelo menos explicar o que você vai fazer e explicar mais ou menos quais casos em que você vai aplicar essa regra. Porque aí que entraríamos em um terreno de abuso das plataformas, de responsabilização das plataformas por um ato próprio, não pelo ato dos seus usuários.
É claro que, a depender do caso, a gente vai ter áreas em que faz sentido que você não revele tudo mesmo. Por questões de segurança, de… sei lá, você não quer revelar ao seu concorrente como você faz — tem vários vários argumentos que têm que ser considerados na hora da transparência acontecer para garantir a segurança e para garantir que aquela plataforma continue rodando. Mas a gente tem que ver meio que no caso a caso para entender se esses argumentos são convincentes ou não.
Guilherme: Deixa eu aproveitar esse gancho, Chico, e fazer uma pergunta que nem está no nosso roteiro. A gente sabe que essa coisa da moderação é um assunto difícil — você tem inúmeras camadas de cinza, não é preto no branco e inúmeras maneiras como isso se manifesta. Só que, também, quando a gente vai analisar isso na prática, você percebe que existe uma série de coisas que essas plataformas poderiam já ter feito, definido nas próprias nas próprias regras. O quanto essas plataformas, especificamente no Brasil, se aproveitam um pouco dessa questão de “ah, isso é difícil, isso é complexo e tal” para manter uma posição de omissão?
Chico: Eu acho que ajuda a estar numa posição de omissão ou de imobilismo, Guilherme. As plataformas só saem dessa posição quando elas tão pressionadas socialmente e politicamente para fazerem alguma coisa. Tudo que tudo que foi implementado últimos anos, não foi implementado num cenário sem pressão. E isso faz muita diferença ao que é implementado e ao que vai ser.
Vou te dar alguns exemplos dessas posturas que que eu, particularmente, avalio muito mal, imagino que vocês tenham outras coisas a dizer. Por exemplo, sistemas automatizados que leem texto, leem muito melhor em inglês do que em português. E é claro que o investimento para algumas línguas diferentes do que para outras. Os Facebook Papers já falaram, já circularam aí nos dizendo que existe uma disparidade de investimento de país para país, ou de língua para língua, pensando no tipo de tecnologia que é aplicada. E pensando em fazer moderação de conteúdo em escala industrial, em escala massiva, ter esse tipo de ferramenta à mão, de última geração, é, na minha opinião, pelo tamanho dessas plataformas, é o mínimo. Você tem que ter ótimos sistemas de detecção.
Outro problema: tamanho de equipe. Outro: explicar quais são as regras e isso estar em português. Algumas plataformas não têm isso claro e não está em português. Outro problema: ter relatórios de transparência que de fato deem noção se os sistemas implementados funcionam ou não, porque senão você pode simplesmente dizer “beleza, tenho essa regra aqui, mas não a apliquei direito porque é muito complexo de aplicar”, como você estava dizendo. Tem que ter um sistema de “accountability” dessas técnicas.
Talvez o ponto que a gente pode pensar, a partir da ideia de que, nossa, isso aqui é complexo, não é não fazer nada, mas é mudar — e aí a minha opinião — é mudar o jeito que a gente pensa essa cobrança. Do tipo: se isso tão é complexo, eu vou ter que pensar numa regulação olhando, por exemplo, para o risco que você está tomando e entendendo o que é o mínimo que você pode fazer e quais são os sistemas de prestação de contas que você vai ter, e menos olhando para os individuais.
Esse tipo de regulação, que vai olhar para o sistema, é um pouco a regulação que a Europa está discutindo. O DSA (“Digital Services Act) é uma pressão nesse sentido, é uma tentativa de olhar isso como um sistema complexo, que precisa de uma de uma regulação que olhe muito para o risco que as empresas estão deixando que aconteça, se elas não tomam determinadas providências.
É algo do tipo… poluição é um problema hipercomplexo. Você vai precisar de análise química para saber se um rio poluído, vai precisar de regras que evoluem, aderindo a novos padrões de ciência, a novas entendimento da biologia sobre os ecossistemas em que as empresas estão (e cada empresa estará em um). Isso quer dizer que a gente não tem regulação nenhuma? Claro que não! A regulação ambiental é uma das mais fortes que existem no mundo, que está bombando do ponto de vista de discussão há muitos anos já. Não é porque é complexo que não tem que fazer nada, ou adotar uma postura imobilista, porque o tema está aí, né? O dano está aí.
Ghedin: Falando de regulação, como você mencionou, ou não é um tema que está quente dos dois lados do Atlântico e esquentando. Acho que será meio inevitável algum tipo de regulação estatal, enfim. Por muito tempo — o Facebook tem quase 20 anos — não houve nenhuma preocupação. Tudo bem que esses problemas vieram se acumulando até chegar num ponto em que não podiam mais ser ignorados, mas hoje a defesa dessas empresas, ou o argumento delas, é de que a regulação é bem-vinda e elas querem participar. Duas perguntas aí. Você acha que a gente deixou — a gente, sociedade — deixou rolar muito tempo um setor importante, que dava sinais de importância, sem uma regulação mínima? E qual a sua visão da participação, sabendo que essas empresas são super poderosas, têm um lobby gigantesco, na definição dessa regulação?
Chico: O que a gente tem regulação hoje já é uma regulação, essa é a primeira coisa. O Marco Civil (da internet) foi uma regulação que as empresas e a sociedade civil, no Brasil, convergiram para ter, porque entendiam que aquilo era importante para garantir a liberdade de expressão na internet no Brasil. A gente viu, por exemplo, os movimentos sociais que debatiam a democratização das comunicações, que têm um histórico de crítica à Globo. por exemplo, e discussão sobre a liberdade de expressão nessa ótica, mais progressista, estarem lado a lado, defendendo a mesma legislação que as empresas de internet em 2014, que não faz muito tempo. Isso foi uma regulação, isso já é alguma coisa. Não do ponto de vista da moderação de conteúdo. Acho que não tem regras específicas para moderação, mas já é uma regulação sobre essas plataformas, uma que as beneficiou, de certa forma. Beneficiou seus modelos de negócio, e a gente não pode fechar os olhos para isso.
Agora, quando a gente vai observando os problemas que a sociedade digitalizada vai produzindo nessas plataformas e que essas plataformas vão produzindo na sociedade — porque é uma relação de via de mão dupla, de mútua implicação —, a gente começa, talvez, pensar que vai precisar de outras regulações. Não para dizer quem vai ser responsabilizado por que e pelo que eu estou dizendo no Facebook, mas para tentar entender que tipo de coisa que o Facebook tem que fazer para coibir algum tipo de problema, um tipo de dano, ter transparência e tudo mais.
Aí tem alguns pontos, Ghedin. Pensar em três. A primeira coisa: essas plataformas e sistemas de moderação de conteúdo não têm só um problema de consistência, eles têm problema de legitimidade.
Muitas pessoas não acham justo que as plataformas tomem decisão sobre seus conteúdos, que é aquela ideia de liberdade de expressão de que estávamos falando do começo, que às vezes a pessoa acha que é censura. E eu acho que faz sentido a gente debater a regulação de plataformas tentando discutir esse problema da legitimidade. A discussão desse problema passa, por exemplo, por a gente talvez estabelecer às plataformas determinados tipos de garantias procedimentais aos usuários, que vão tornar as decisões das plataformas um pouco mais legítimos, porque um pouco mais respeitosas aos direitos dos usuários. Por exemplo: explicar por que removeu o conteúdo, dar um direito de revisão porque pode ter acontecido um erro, dar transparência desses processos em relatório periódicos… Isso está contido nas discussões regulatórias recentes, por conta, na minha opinião, dessa discussão de legitimidade.
Segunda coisa que é importante, essa discussão de regulação de plataformas gera um debate também sobre concorrência, porque quando as pessoas “as plataformas precisam ser reguladas reguladas porque elas são muito poderosas”, elas estão dizendo que as plataformas têm monopólios, por exemplo, que elas têm um poder dominante, e que a regulação tem que resolver esse problema.
O que eu geralmente digo é que a gente precisa tratar dos problemas ao mesmo tempo, mas não necessariamente na mesma página. Em alguns casos, regulação de plataformas vai tornar o mercado mais concentrado, porque você vai gerar custos às plataformas novas, entrantes, que as plataformas que já existem e têm muito dinheiro já vão conseguir resolver e as novas não. Você pode acabar “fechando a porteira” para novos em frente competidores do Facebook, competidores do YouTube, competidores do Instagram.
E aí entra a terceira questão, que é: as plataformas estão pedindo regulação. Como isso se relaciona com essa proteção de uma posição dominante? Eu acho que se relaciona de alguma forma. Essas plataformas estão encarando o debate de uma forma diferente, não é só por causa de um esforço de relações públicas. Talvez seja também, mas também porque elas perceberam que a pressão social é muito grande, que a maré virou um pouco e isso, no médio e longo prazo, talvez cause efeitos para competidores que vão surgir no futuro.
Guilherme: Você deu uma entrevista, bem interessante, para os Desinformantes com a Mariana Valente, que era então, na época, diretora-executiva do InternetLab. Num certo trecho, você fala sobre possíveis consequências inesperadas da aplicação cega da moderação. Eu queria que você explicasse um pouco melhor quais são essas possíveis consequências inesperadas, num contexto Brasil.
Chico: O que mais me preocupa é que as plataformas mantenham ou busquem, se a gente acha que elas não mantêm, e algumas não mantêm mesmo em alguns temas, alguma consistência nessa aplicação das regras. Isso eventualmente vai chocar, as decisões das plataformas, com pressões sociais, e o único jeito de se resolver isso é as plataformas serem claras do porquê que elas tão fazendo as coisas.
As consequências impensadas, num cenário em que esses cuidados não são tomados, a moderação de conteúdo se tornar uma batalha da polarização, ainda mais, e as decisões das plataformas serem utilizadas como troféus por determinados segmentos políticos, para eles dizerem que são vítimas em processo e tudo mais, e a sociedade entender isso como verdade. Isso é uma consequência problemática, de uma moderação de conteúdo mal feita e mal comunicada com a sociedade. É as pessoas acharem que “nossa, esse grupo político está sendo perseguido mesmo”, quando na verdade ele não está. Eu penso por aí.
Guilherme: A gente está falando do bolsonarismo? Que já se coloca como vítima e sempre que um conteúdo é moderado eles estão gritando “censura” e o escambau.
Chico: Estou. E se você modera o bolsonarismo sem explicar por que você está moderando, sem apontar a regra que eles estão cruzando e de forma inconsistente, você vai contribuir com o discurso vitimista.
Por isso que a moderação de conteúdo precisa ser muito bem feita, você tem que reduzir esse risco, e reduzir esse risco não é só aplicando bem a regra, é fazendo uma boa regra, é comunicando essa regra e, claro, aplicando bem, e, depois, explicando como você aplicou, o que ficou de fora e tudo mais. Essa é uma atividade que é perene. Essa complexidade é perene. E de novo, voltamos àquela coisa do imobilismo: justamente porque ela é perene, porque ela é contínua, que não se pode ficar parado. Ela pede uma constante evolução, um constante aperfeiçoamento dos processos.
Jacqueline: Chico, uma pergunta para a gente encerrar o nosso bate-papo, é um pouco falando sobre como essa questão parece longe de acabar. A gente mencionou como a moderação é importante no Facebook, no Instagram, redes que tradicionalmente lidam com esse problema, mas o Spotify, recentemente, também mexeu num vespeiro semelhante com os podcasts exclusivos que eles têm ali, quer dizer, como é que se modera o que você está, de certa forma, editorializando. Queria saber se você acha quem ainda há espaço para aquele discurso das plataformas de que “não, nós somos isentas”, “não, a gente não é responsável por esse conteúdo, somos apenas uma plataforma”, ainda que em alguns casos elas estejam editorializando — no caso específico do Spotify, era um conteúdo exclusivo, que a plataforma paga para ser produzido. Você acha que dá para usar esse modelo de isenção da plataforma, ou já venceu esses discurso?
Ghedin: Só complementando, antes da resposta, Dá até para voltar um pouco antes do caso do Spotify e pensar, ou questionar, se o próprio algoritmo, que hoje “rankeia” os feeds, não seria uma espécie de editorialização e, nesse sentido, tirasse um pouco da força desse argumento de isenção dos plataformas.
Chico: A discussão do Spotify, lembrando que tem essa diferença de que o podcast em questão, do Joe Rogan, não é um produto de qualquer usuário, mas um produto pago pelo Spotify — isso muda meio que tudo do ponto de vista regulatório mesmo —, mas essa de fato é uma discussão que evidenciou que esse discurso, “ah, é só uma plataforma”, é discurso instrumental, que serve para poucos casos hoje ou alguns casos. Não vai servir para todos. Eu nunca acreditei nesse discurso como se ele se aplicasse a 100% dos casos porque as plataformas sempre — digo, essas que estão aí — agiram agiram contra conteúdo protegido por direito autoral, ou seja, elas tiveram que avaliar o que está protegiro por direito autoral ou não. Sempre agiram contra conteúdo de exploração sexual de crianças, pedofilia, sempre agiram. Então não é uma plataforma para tudo. Nunca foi.
Agora, essa discussão sobre editorialização, eu acho a gente tem que ter algum cuidado porque ela também é, de outro lado, no outro extremo, um discurso meio ideológico. Esse discurso da plataforma neutra é meio uma ideologia, ou um guarda-chuva, vai, que você consegue usar para proteger determinadas práticas e propostas, mas o discurso de que as plataformas são empresas de mídia como qualquer outra, elas fazem editorialização a todo momento, inclusive com os algoritmos, também é um discurso um tanto ideológico, ou instrumental, em especial para os maiores concorrentes das plataformas fora do mercado de plataformas, que são as empresas de mídia de legado — a Globo no Brasil. Não é à toa que a Globo martela o tempo inteiro que as plataformas têm que ser vistas como ela é vista, com certa simetria regulatória, desprezando que há uma diferença dos produtos oferecidos e que existir conteúdo produzido pelos usuários e, inclusive, a viralização também passar por arranjos nos quais o compartilhamento feito por usuários é importante, é uma condição às vezes tão importante quanto a condição algorítmica, faz diferença.
Aí entra no ponto do algoritmo. A porção da presença de sistemas automatizados é diferente de plataforma para plataforma. Tem plataformas mais algoritmizadas do que outras. Eu gosto de falar que esse exercício curatorial — não sei se editorial. Porque também tem esse ponto: não um editor, como o editor do Jornal Nacional, que está decidindo o que vai entrar e o que não vai entrar, né? É um arranjo gigantesco de decisões de programação sobrepujadas por decisões
políticas de pessoas, sobrepujados por arranjos regulatórios que imprimiram seus efeitos ali, naquele produto, e por aí vai, que, na ponta da linha, “escolhem” uns 30, 40, 50, 100 primeiros posts que vão chegar no feed de alguém, num sistema de recomendação.
Eu gosto de pensar que essa curadoria é exercida não só por pelos mecanismos de recomendação ou automatizados, mas, de uma forma mais geral, pela arquitetura que as plataformas escolher ter, ou seja, se você diminui o tamanho, por exemplo, do link para o vídeo que está sendo recomendado num YouTube da vida, você eventualmente vai diminuir a taxa de conversão daquele vídeo, o número de cliques que ele vai ter, e essa não é uma decisão de mudar o algoritmo, é uma de arquitetura. Se você escolhe não colocar um sistema de automatização, também.
Esses sistemas produzem uma curadoria específica. Eu acho que a gente tem que conversar sobre essas curadoria, o que elas produzem de efeito e como as plataformas podem responder por isso, mas colocar isso na caixinha da editoria, como a gente vinha pensando editorial, para mim é tão pobre quanto a gente dizer que “nossa, as plataformas são neutras e não temos que ficar debatendo quais as decisões que elas vão tomar, porque no fundo elas só estão querendo proporcionar o espaço para as pessoas falarem”. Porque elas estão querendo proporcionar um determinado espaço, específico.
A moderação de conteúdo, para dar o fecho da coisa, é aí que ela é parte do produto. Quando a pessoa entra no Instagram, ela está consumindo o produto Instagram que contém a arquitetura do Instagram, os sistemas de automatização do Instagram — de recomendação, do feed, o Explore do Instagram, que também é um algoritmo sugere para o que você vai olhar — e também o sistema de moderação de conteúdo, porque se ele for horrível, as pessoas talvez não queiram mais esse produto. Ele é parte. Está na embalagem.
Foto do topo: Bianca Moreira/InternetLab.