Imagem ex-librisOpinião do Estadão

Jornalismo marrom na era digital

No longo prazo, as interações nas mídias sociais dependem de credibilidade.

Exclusivo para assinantes
Por Notas & Informações
2 min de leitura

O Facebook, ecoando outras mídias sociais, costuma dizer que desde as eleições norte-americanas de 2016 tem aprendido a lidar com a desinformação. Às vésperas de um novo pleito, um levantamento do German Marshall Fund sugere que a lição de casa precisa ser feita com mais empenho. Segundo o instituto, nos EUA as interações com fontes enganosas no Facebook triplicaram desde 2016.

Seja por genuíno interesse em reprimir a desinformação, seja pela aversão à regulamentação, as mídias sociais efetivamente investiram em mecanismos de autocontrole, sobretudo via inteligência artificial. Recentemente, o Facebook reverteu sua posição tradicional, decidindo que declarações manifestamente falsas – como a negação do Holocausto – não seriam mais admitidas. A plataforma – assim como o Twitter e o TikTok – também expurgou centenas de grupos responsáveis por alastrar teorias da conspiração e impôs limites aos anúncios políticos. O Twitter aprimorou mecanismos que advertem os usuários a não replicar conteúdos considerados duvidosos.

Mas o vírus da desinformação se transmuta rapidamente, por exemplo, lançando mão de sites que se mascaram como jornalismo, criando uma multidão de “cavalos de troia”. São plataformas que tomam a aparência de sites de notícias e “lavam” a desinformação ao mesmo tempo que se evadem das práticas do jornalismo independente, como checagem de fontes e correção de dados.

Seguindo a metodologia do NewsGuard, um serviço não partidário que avalia a confiabilidade de sites de notícias, o Marshall Fund diferencia dois tipos de sites enganosos: os Falsificadores, que reiteradamente publicam conteúdo manifestamente falso; e os Manipuladores, que falham em publicar responsavelmente informações (apresentando, por exemplo, alegações não apoiadas em evidências) ou que as distorcem acintosamente em prol de algum argumento. Desde 2016, a taxa de interações com os Falsificadores aumentou 102%. Já com os Manipuladores, aumentou 242%.

A maioria das interações vem de um número pequeno de “contaminadores”. Os dez maiores Manipuladores são responsáveis por 62% das interações. Sites como Daily Wire, Breitbart e, sobretudo, a Fox News são exemplos da zona cinzenta entre o jornalismo independente e a manipulação. A Fox, por exemplo, publicou uma série de alegações enganosas – como a de que a cloroquina protege contra o vírus ou que o distanciamento social é ineficaz –, mas tem uma classificação mais alta porque corrige erros, evita manchetes enganosas e revela suas fontes de financiamento.

O conteúdo produzido pelos Manipuladores é tipicamente projetado para ser impactante e argumentativo, frequentemente em oposição à “mídia tradicional” e à chamada “elite”, e acaba sendo turbinado pelos algoritmos das mídias sociais, programados não para disseminar fatos, mas para gerar interações.

Mas se o negócio das mídias sociais depende de interações, no longo prazo essas interações dependem de credibilidade. O mero investimento em checagem de fatos por robôs pode ser útil contra os Falsificadores, mas o caso dos Manipuladores revela a indispensabilidade do emprego de peritos humanos. Se quiserem recuperar sua credibilidade, as mídias sociais deveriam investir mais em institutos independentes empenhados no monitoramento das notícias. Outro passo importante seria o investimento em pesquisas sobre como as notícias falsas são geradas e compartilhadas. As plataformas alegam que têm procurado garantir que conteúdos de fontes mais confiáveis alimentem os perfis dos usuários, mas, como mostra o levantamento, esse esforço ainda é insuficiente. 

Um terceiro passo é o letramento digital. Se as mídias sociais quiserem mostrar seu compromisso com o interesse público e a saúde da democracia, precisarão coordenar melhores esforços com órgãos de Estado e organismos internacionais (como, por exemplo, a OMS) para promover políticas públicas que formem usuários capazes de questionar seus vieses e suas próprias “bolhas” políticas e sociais.