Redes sociais deixam fake news passar para não perderem dinheiro

Todos os posts, Últimas notícias

Foto: Dan Addison

A oito meses da eleição presidencial, as plataformas digitais disseram pouco sobre como vão enfrentar os desafios da desinformação durante o período eleitoral. Nos acordos firmados com o TSE (Tribunal Superior Eleitoral) nesta semana, muitas das medidas apresentadas não são específicas para o pleito brasileiro e ficam aquém das políticas adotadas nos EUA.

Para o antropólogo e pesquisador David Nemer, que integra o Centro Berkman Klein para Internet e Sociedade da Universidade Harvard (EUA), a falta de comprometimento das empresas pode ser explicada por interesses econômicos. “Elas não querem de fato agir de forma a diminuir engajamento, já que fake news geram engajamento, e engajamento é a forma pelo qual elas monetizam. Não querem comprometer o lucro com medidas que possam reduzir o efeito da desinformação”.

Segundo ele, mesmo depois da campanha que levou à invasão ao Capitólio em 6 de janeiro de 2021, as plataformas não parecem muito preocupadas com os riscos políticos das fake news no Brasil. “Elas se sentem muito seguras para tomar essas atitudes”, diz ele.

Nemer propõe que as redes sociais adotem medidas para identificar os chamados “hubs de desinformação”, conjunto de contas que orquestram as campanhas de mentiras nas redes. Segundo ele, esses perfis são geralmente responsáveis por levar as fake news da “periferia” para o “centro” do debate público na internet.

Ele dá como exemplo a mensagem que circulou nas redes nos últimos dias sobre Bolsonaro ter evitado a 3º Guerra Mundial ao viajar para a Rússia. “Uma conta estava liderando essa campanha. Deu para ver como uma pessoa, uma conta grande, foi suficiente. Você conseguindo identificar e retirando essa conta, você mitiga os efeitos da desinformação”, defende.

O pesquisador também descreve como o aparato de desinformação bolsonarista se transformou ao longo dos anos, passando do foco no WhatsApp em 2018 para a fuga até o Telegram e o YouTube em 2022.

As plataformas digitais anunciaram poucas medidas específicas para a eleição brasileira nos acordos com o TSE sobre fake news, principalmente em comparação ao cenário nos EUA. O que justifica essa atitude?

As medidas que foram propostas são muito ineficientes e mostram o real comprometimento das plataformas em relação à desinformação e a fake news.

Ou seja, elas não querem de fato agir de forma a diminuir engajamento, já que fake news geram engajamento, e engajamento é a forma pelo qual elas monetizam. Não querem comprometer o lucro com medidas que possam reduzir o efeito da desinformação.

As propostas são “tapa de luva” na cara da gente que está estudando, criticando, inclusive para ajudar as plataformas a entenderem como se combate a desinformação. É frustrante.

Os efeitos políticos da desinformação não são prejudiciais para as empresas?

Podem ser, sim. Mas até então, no Brasil, parece que elas não estão se preocupando muito com isso. Até então, elas se sentem muito seguras para tomar essas atitudes.

Com exceção do Twitter, nenhuma das empresas respondeu como reagirá em caso de contestação de resultados e incitação à violência. Elas podem ser responsabilizadas caso essas ameaças se concretizem?

Elas podem, sim, porque o Marco Civil da Internet, por exemplo o artigo 19, permite que seja possível solicitar judicialmente que a plataforma retire conteúdo. Se a plataforma não retira, ela pode ser responsabilizada em relação àquele conteúdo.

Mesmo assim, no Brasil, com o Marco Civil, ainda é entendido que as plataformas, a princípio, são apenas um meio. Elas não são judicialmente culpadas pelo conteúdo. Mas após um pedido judicial de retirada de conteúdo não cumprido, aí sim vem a responsabilidade. Mas a priori, elas não são responsabilizadas pelos conteúdos, apenas o usuário.

Você não acha que seria melhor, após episódios como a invasão ao Capitólio, no ano passado, termos medidas que mais prevenissem do que remediassem?

Com certeza. É muito melhor ser proativo do que reativo. E no Brasil há um potencial muito forte de ocorrer o que aconteceu aqui, nos Estados Unidos.

O Barroso [presidente do TSE, Luís Roberto Barroso] está tentando fazer isso. Quando ele engaja nesse debate com as redes sociais, o TSE quer ser proativo, ele quer entender como pode ser feito o combate à desinformação. Só nos cabe ser esperançoso, mas diante dessas respostas [das plataformas] não há muito como ser otimista.

Bolsonaro parou por agora, mas no WhatsApp e no Telegram bolsonarista volta e meia reaparece essa questão das urnas eletrônicas estarem hackeadas. Eles dizem que não vão aceitar [o resultado das eleições] se não houver o voto impresso. Uma conversa que a gente viu mais no fim do ano passado, mas é uma coisa que Bolsonaro vai retomar. Ele está um pouco mais calmo nisso porque o TSE puxou a rédea e falou firme.

Então você acredita que as plataformas têm mesmo capacidade de conter a desinformação nas redes.

Têm. Não é possível conter 100%. É impossível varrer a rede, identificar e retirar tudo. Mas você consegue identificar esse “hubs”, as contas da desinformação. É de lá que saem a maioria da desinformação e a orquestração. São elas que trazem a desinformação para o centro do debate público. Uma vez retirados, esses temas voltam para a periferia do debate e não têm o estrago que fariam se estivessem como parte do debate central.

É possível acabar com as consequências da desinformação. As plataformas podem usar ações com atitudes pedagógicas. E como aviso: pegar alguém como exemplo e retirar.

Como devem agir Bolsonaro e grupos bolsonaristas caso não tenham vitória na eleição?

Esse é o grande mistério e o grande medo. Hoje, a aprovação do governo Bolsonaro é minúscula. Muito longe de ser uma maioria, mas suficiente para levar pessoas às ruas. Os protestos antidemocráticos demonstraram isso. Não são uma força política a ponto de ser um movimento nacional, mas suficiente para juntar pessoas para fazer um estrago. Eles têm potencial para engajar em atitudes totalmente antidemocráticas.

Nessas eleições, a ansiedade social será muito maior do que a de 2018, já que Bolsonaro entrega o país numa crise sem precedentes. A campanha dele vai ter que recriar uma realidade para convencer sua base a votar nele.

De 2018 para cá, vê alguma diferença no comportamento de grupos de apoiadores do presidente na internet?

Em 2018, as pessoas estavam sendo pagas para desenvolver fake news para o WhatsApp. Hoje, com o avanço do inquérito das fake news e com a CPMI no Congresso, mudou muito essa dinâmica. O dinheiro que financiava desinformação no WhatsApp não existe mais, pois quem financiava já não quer essa exposição.

Com a saída desse financiamento, quem produz desinformação buscou outras formas de monetizar. Antes mesmo de estarem ali por uma ideologia política, as pessoas estão ali por causa do dinheiro.

Em 2019 e 2020, começaram a entrar no ramo de sites, como o Jornal da Cidade Online, que trazia o tráfego do WhatsApp. Esses sites monetizavam em cima de anúncios do Google Adsense. Com o avanço dos Sleeping Giants, por exemplo, e as campanhas contra esses canais, os anunciantes começaram a retirar os anúncios dessas plataformas.

Então o próximo passo foi o YouTube. Hoje, dentro do WhatsApp e do Telegram bolsonarista o que mais circulam são links de vídeos do YouTube, porque lá esses desinformadores conseguem monetizar. O YouTube paga eles por cada clique, a cada visita.

Se o YouTube desmonetizar esses grupos, acaba a desinformação na plataforma. Fazer desinformação é trabalho, requer tempo, recursos e ninguém faz isso de graça. O YouTube parece ser a última esperança deles.

O Telegram tem ignorado decisão do STF e não retorna os contatos das autoridades. O app deve ser bloqueado no Brasil?

É uma situação que não é boa para ninguém. Você tem um app que se acha acima de qualquer lei do país e que vai ser um instrumento forte de desinformação [na eleição]. Mas, por outro lado, é também uma plataforma que está em 53% de todos os celulares, que é praticamente uma utilidade pública, onde pessoas se informam. É um aplicativo extremamente complexo e extremamente importante.

Então, deixar correr solto não vai ser bom para as nossas eleições, e banir também não. Acho que tem que haver conversa [com as autoridades]. Mas se um lado se recusa a conversar e se vê acima da nossa Constituição, então fica muito difícil criticar o Barroso ou qualquer autoridade. Só vai restar esse tipo de atitude [o banimento].

Você está criando um robô que denúncia discursos de ódio. Pode falar um pouco sobre ele?

A forma como essas plataformas combatem fake news está muito aquém. É possível achar grupos no Facebook que celebram o nazismo, por exemplo. Com o bot que estou testando, por exemplo, o objetivo é saber qual tipo de discurso o Twitter leva mais a sério para ser retirado. Até então, o que deu para entender é que discurso homofóbico parece ser menos tolerável, porque as contas que foram suspensas naquele experimento foram contas que engajaram com discurso homofóbico.

Folha