Pastores e parlamentares seguem postando fake news

Destaque, Todos os posts, Últimas notícias

Foto: Pablo Valadares/Câmara dos Deputados

Conteúdos publicados nos últimos dois anos com questionamentos às urnas eletrônicas e ataques ao Judiciário permanecem no ar nas principais plataformas digitais e expõem demora das empresas na análise de violações de suas regras. O alerta é de monitoramento feito por um grupo de pesquisadores brasileiros de Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), Universidade Federal do Rio Grande do Sul (UFRGS) e Universidade de Lisboa, em Portugal.

Postagens antigas com desinformação preocupam pelo risco de voltarem a circular em outras plataformas, como WhatsApp e Telegram, e levantam dúvidas sobre o quanto as empresas efetivamente cumprem suas próprias políticas. Os exemplos identificados incluem, no YouTube, vídeos com falas da deputada federal Bia Kicis (PL-DF) que contestam a confiabilidade das urnas eletrônicas. Também há uma postagem do canal Folha Política com a leitura de um artigo com ataques ao Supremo Tribunal Federal (STF) e pedido de intervenção militar.

Outro caso é um vídeo do pastor Silas Malafaia, disponível no YouTube e Twitter, no qual o aliado do ex-presidente Jair Bolsonaro faz ameaças ao ministro Alexandre de Moraes e ao Tribunal Superior Eleitoral (TSE).

Os esforços de moderação nas eleições costumam ser citados pelas plataformas para argumentar que já agem para evitar conteúdos problemáticos e se contrapor à regulamentação por meio do PL das Fake News, que tramita na Câmara. Pesquisadores, no entanto, não conseguem acompanhar essa atuação, pela falta de transparência no processo de moderação e identificação de casos de violação de regras, em geral, com participação significativa de automação. O tema é um dos focos do projeto de lei na Câmara dos Deputados.

— O vídeo que continua disponível pode ser linkado em um site de desinformação. O YouTube é canal do ecossistema de desinformação montado no Telegram — afirma o professor de Estudos de Mídia Marcelo Alves, da PUC-Rio, acrescentando: — A medida mais importante sempre foi a remoção. É a que de fato consegue ter eficácia na desestruturação de conteúdos ou comunidades. As medidas de redução de visibilidade são paliativas.

O YouTube disse que encerrou mais de 2,5 mil canais e removeu mais de 10 mil vídeos com violações de regras sobre as eleições, dos quais 84% foram retirados antes de atingirem cem visualizações.

Já a Meta declarou ter retirado do ar proativamente mais de 3 milhões de conteúdos no Facebook e Instagram por violação às suas políticas de conteúdo entre agosto de 2022 e janeiro de 2023. O TikTok informou que removeu 10,4 mil vídeos extremistas e com desinformação durante e após os atos golpistas de 8 de janeiro.

O professor da PUC-Rio buscou em um experimento fazer uma engenharia reversa da moderação do YouTube e entender sua dinâmica de remoção de conteúdos. A pesquisa coletou 193 mil vídeos de canais com diferentes vieses políticos publicados entre julho de 2022 e janeiro de 2023. Ao todo, 29.755 conteúdos estavam indisponíveis na plataforma em uma consulta feita em fevereiro, ou seja, 15% do total. Nesse universo, foi possível constatar atuação direta do YouTube na remoção por violação de políticas em somente 142 casos.

Em 17.384 vídeos, não houve qualquer indicação do motivo de não estarem mais no ar. Outros 11.769 conteúdos foram excluídos ou tornados privados pelos próprios canais. Os resultados serão apresentados em um artigo no encontro anual da Associação Nacional dos Programas de Pós-Graduação em Comunicação (Compós), em julho.

Os dados apontam que a extrema-direita, campo no qual se insere o bolsonarismo, foi o segmento com maior índice de conteúdo fora do ar. Isso ocorreu tanto em casos de violação de regras quanto naqueles em que o próprio canal retira o vídeo, o que indica que a medida se tornou uma tática para prevenir sanções na plataforma ou de implicações jurídicas.

Em nota ao GLOBO, o YouTube afirmou que exemplos de vídeos ainda no ar enviados à plataforma estão em análise e que novas tecnologias implementadas pela empresa ampliaram sua “capacidade de detectar e remover conteúdo violador”. “Quando localizamos material que viola as regras, independentemente da data de postagem, removemos do YouTube”, afirma.

O Globo