Post livre #63

Este post é apenas um pretexto para conversarmos nos comentários. Entre, mande um comentário sobre o que quiser, responda os demais, e só.

Pós-verdade aplicada ao Brasil

O Dicionário Oxford escolheu “pós-verdade” como a palavra do ano. O termo, que nem é novo, é um adjetivo definido como “relativo ou que denota circunstâncias nas quais fatos objetivos são menos influentes em moldar a opinião pública do que apelos à emoção e às crenças pessoais.” Diz respeito, neste momento, à proliferação de notícias falsas ou distorcidas em redes sociais que servem de combustível ao viés de confirmação. Mas não é um problema só delas, do Facebook e do Twitter. É nosso.

Venho pensando sobre como combater esse problema. Há muitos riscos envolvidos, do chatear/brigar com alguém até o de soar condescendente ou, pior, autoritário.

Talvez a melhor via, ou pelo menos a mais conciliadora e promissora, seja a mesma usada por quem produz todo esse chorume: a da (no caso, boa) informação. Argumentos bem articulados, contrapontos bem fundamentados, num processo longo, tortuoso e sem garantias. (Sigo aberto, e pensando também, em outras iniciativas!)

Não é um problema só da eleição presidencial dos Estados Unidos ou do Brexit no Reino Unido. Já acontece aqui, no Brasil. No grupo da família no WhatsApp, nos perfis dos seus amigos no Facebook. Como evidencia este levantamento publicado hoje (“Notícias falsas da Lava Jato foram mais compartilhadas que verdadeiras”), o problema é real, urgente e pede a nossa atenção.

Mark Zuckerberg admite problema com notícias falsas no Facebook e anuncia medidas para contê-las

O resultado das eleições para a presidência norte-americana expôs um problema fundamental do Facebook: a falha em conter a disseminação de notícias flagrantemente falsas na plataforma. Após um breve período de negação, Mark Zuckerberg admitiu que algo precisa ser consertado e apresentou algumas medidas nesse sentido.

A admissão não veio facilmente. Antes, ele tentou relativizar o problema das notícias falsas no Facebook algumas vezes. Em 13 de novembro, escreveu em seu perfil:

De todo o conteúdo no Facebook, mais de 99% do que as pessoas veem é autêntico. Apenas uma pequena quantidade é de notícias falsas e boatos. Os boatos que existem não são limitados a visões partidárias ou mesmo à política. No geral, isso torna extremamente improvável que boatos tenham alterado o resultado dessas eleições em uma direção ou outra.

Mas evidências apontam o contrário. O conteúdo desse tipo pode até ser pouco, mas faz barulho e se espalha incrivelmente bem.

É de bom tom esclarecer que a crítica não é no sentido de que o Facebook determinou o resultado da eleição, mas sim que envenenou o debate ao reforçar posicionamentos com base em notícias flagrantemente falsas. Em alguns casos, deliberadamente falsas, notícias fabricadas apenas pelo potencial de viralização e lucratividade. E, independentemente das eleições, o sucesso dessa abordagem aponta que há um problema endêmico ali.

Em uma publicação na noite de ontem (18/11), Zuckerberg reconheceu o problema:

Esses problemas aqui são complexos, tanto técnica como filosoficamente. Acreditamos em dar voz às pessoas, o que significa errar para o lado de deixar as pessoas compartilharem o que elas quiserem sempre que possível. Precisamos ser cuidadosos para não desencorajar o compartilhamento de opiniões ou, equivocadamente, restringir conteúdo preciso. Não queremos ser árbitros da verdade, mas em vez disso, confiar em nossa comunidade e em terceiros confiáveis.

Embora a porcentagem de desinformação seja relativamente pequena, temos muito trabalho pela frente em nosso cronograma. Normalmente, não compartilhamos especificidades sobre os nossos projetos em curso, mas dada a importância dessas questões e o tanto de interesse [que há] no assunto, quero delinear alguns dos projetos que já começamos:

  • Detecção mais forte. A coisa mais importante que podemos fazer é melhorar a nossa habilidade de classificar a desinformação. Isso significa melhores sistemas técnicos para detectar o que a pessoas sinalizam como falso antes mesmo que elas façam isso.
  • Facilitar denúncias. Tornar muito mais fácil para as pessoas denunciarem histórias como falsas nos ajudará a capturar desinformações mais rapidamente.
  • Verificação por terceiros. Existem muitas organizações respeitáveis de fact checking e, embora nós já tenhamos entrado em contato com algumas, planejamos aprender com muitas outras mais.
  • Alertas. Estamos explorando [a ideia de] etiquetas em histórias que foram sinalizadas como falsas por terceiros ou pela nossa comunidade e exibir alertas quando as pessoas leem ou compartilham elas.
  • Artigos relacionados de qualidade. Estamos elevando o nível das histórias que aparecem nos artigos relacionados abaixo dos links do feed.
  • Acabar com a economia das notícias falsas. Muito da desinformação é direcionado pelo spam financeiramente motivado. Estamos tentando acabar com essa economia com políticas de anúncios como a anunciada no início da semana e melhorando a detecção de fazendas de anúncios.
  • Ouvir. Continuaremos trabalhando com jornalistas e outros da imprensa para receber suas opniões, em especial para entender melhor seus sistemas de checagem de fatos e aprender com eles.

São ações promissoras que se somam à exclusão de sites de notícias falsas do programa de publicidade do Facebook, medida anunciada segunda-feira (14/11) e que foi adotada também pelo Google.

Post livre #62

Este post é apenas um pretexto para conversarmos nos comentários. Entre, mande um comentário sobre o que quiser, responda os demais, e só.

Twitter implementa novas ferramentas para conter abusos

Das redes sociais mainstream, o Twitter é uma das mais tóxicas. Embora a política de uso proíba conteúdo ofensivo, a rede é repleta dele — e pouco faz no sentido de inibir esse tipo de comportamento. O problema é tão grave que atrapalhou as negociações de compra do Twitter pela Disney.

Antes tarde do que mais tarde, medidas começaram a ser tomadas. O Twitter anunciou melhorias nas opções de silenciar, permitindo agora ignorar termos nas notificações e conversas inteiras com poucos cliques. Outra boa medida foi incluir no formulário de denúncias a opção “Direciona o ódio contra uma raça, religião, gênero ou orientação sexual”, adição combinada com, segundo a empresa, treinamentos da equipe para lidar com esse tipo de situação:

(…) treinamos novamente todas as nossas equipes de suporte em nossas políticas, incluindo sessões especiais de contextualização histórica e cultural de condutas de ódio, e implementamos um programa de atualização continuada. Também melhoramos nossas ferramentas e sistemas internos a fim de lidar com mais eficiência com essa conduta quando ela nos é relatada. Nosso objetivo é [ter] um processo mais rápido e transparente.

Mais importante que as novidades técnicas, é o reconhecimento de que há um problema fundamental ali que precisa ser sanado.

Post livre #61

Este post é apenas um pretexto para conversarmos nos comentários. Entre, mande um comentário sobre o que quiser, responda os demais, e só.

O site recebe uma comissão quando você clica nos links abaixo antes de fazer suas compras. Você não paga nada a mais por isso.

Nossas indicações literárias »

Manual do Usuário