Já faz alguns anos que os grupos são o motor de crescimento (ou o que sustenta a relevância) do Facebook. Nesta quarta (9), a Meta lançou novas ferramentas para ajudar os administradores de grupos a fazerem seu trabalho.
A mais interessante é uma opção que, se ativada, rejeita automaticamente publicações dos membros “identificadas como portadoras de informações falsas” pelas agências de checagem de fatos parceiras da Meta. Com isso, a empresa espera reduzir a disseminação de desinformação nos grupos. Via Meta.
Quem decide quem é “membro portador de informações falsas”?
O facebook? É pra confiar no facebook então?
São as publicações que são consideradas falsas, não os membros. E quem rotula conteúdos como falsos são as agências de checagem parceiras da Meta/Facebook.
Que lógica bizarra. Eles tão admitindo que existe conteúdo falso rolando e também tão sendo coniventes então, porque permitem que os administradores dos grupos deliberadamente autorizem conteúdo falso nos grupos ?
Não sei se a lógica é tão bizarra assim. Remover o conteúdo seria editorializar o conteúdo, algo que não é papel das plataformas fazer. E há contextos em que o link “mentiroso” é aceito — por exemplo, em um grupo de pesquisadores ou de jornalistas que debatam a repercussão de uma “fake news”.
É, realmente, não tinha pensado por esse lado. Mesmo assim, imagino que existam muito mais contextos em que o conteúdo falso seria ruim do que bom… pra mim faria mais sentido que fosse uma função opt-out, não opt-in. Conteúdo falso seria bloqueado por padrão e, se os adms fizerem muita questão, aí sim se permite.