Relator do PL das Fake News quer expor ‘caixa preta’ da moderação automatizada

Todos os posts, Últimas notícias

Foto: Paulo Sérgio / Câmara dos Deputados

Dentre as exigências para as plataformas de redes sociais previstas no projeto de lei das fake news, uma delas mira a falta de transparência de um dos principais mecanismos usados pelas empresas para coibir a disseminação de desinformação: o uso de sistemas automatizados para fazer a moderação de conteúdo e identificar violação das regras. A nova redação do texto, relatado pelo deputado Orlando Silva (PCdoB-SP) e em tramitação na Câmara, prevê que as plataformas divulguem relatórios com o detalhamento do funcionamento dessas tecnologias, tidas por pesquisadores como “caixas pretas”.

Na perspectiva das redes, por outro lado, há o temor de que a obrigatoriedade de divulgar dados sobre os sistemas auxilie usuários que queiram burlar seu monitoramento automatizado. Entre os pontos exigidos no relatório estão a divulgação de taxas de detecção ativa de conteúdos considerados irregulares por sistemas automatizados; os critérios para operação; o grau de acurácia dessas tecnologias; e informações sobre as bases de treinamento dos sistemas, por meio de técnicas de machine learning (aprendizado de máquina, em português).

Em geral, as plataformas combinam tecnologias de inteligência artificial com equipes humanas de moderação de conteúdo para identificar quais publicações violam ou não suas regras, o que inclui casos de desinformação não permitidos por suas políticas, como os que envolvem a Covid-19. Os sistemas fazem a maior parte da triagem desses casos e têm permitido dar ganho de escala à moderação.

Por dentro do sistema

No YouTube, por exemplo, 91% dos vídeos removidos entre outubro e dezembro de 2021 em todo o mundo por violações a regras, por diferentes motivos, foram detectados pela primeira vez de forma automatizada, de acordo com relatório da plataforma. O Brasil é o quarto país com mais postagens removidas no período, com mais de 220 mil casos. No Twitter, mais de 50% do conteúdo que viola suas diretrizes também é identificado por sistemas automatizados.

— Se a gente quer entender no dia a dia como a moderação acontece, a automação é o cerne da questão. Para as redes moderarem conteúdo com objetivo de controlar o que está acontecendo dentro delas, não tem como não usar automação, mas existem diferentes formas de usá-la. A gente não tem hoje clareza sobre o que acontece dentro das plataformas. Há vários sistemas para detectar conteúdos diferentes e para cada tipo de violação — resume Artur Pericles, coordenador de liberdade de expressão no InternetLab.

Uma das formas mais comuns de usar sistemas automatizados é acionar a tecnologia para encontrar cópias de um conteúdo já identificado como violador de regras. O Facebook, por exemplo, utiliza uma ferramenta para encontrar postagens sobre Covid-19 classificadas como falsas por organizações de verificação de fatos parceiras. A inteligência artificial é usada para identificar mensagens com formas ligeiramente diferentes, como uma imagem modificada com alguns pixels cortados ou aumentados com um filtro.

A expansão dos mecanismos de transparência no PL das fake news é elogiada por pesquisadores e organizações da sociedade civil. A Coalizão Direitos na Rede, que reúne 50 organizações em defesa dos direitos digitais, avalia que as obrigações às plataformas são necessárias para que poder público, sociedade civil e Academia “tenham condições de acompanhar as atividades de moderação de conteúdos realizadas por essas empresas e seja possível avaliar a necessidade de estabelecimento de novas regras”.

Apesar disso, uma análise do grupo de pesquisa em Moderação de Conteúdo Online do Centro de Tecnologia e Sociedade (CTS), da Fundação Getulio Vargas (FGV), publicada em dezembro, aponta lacunas. Segundo o documento, o PL das fake news não estabelece metodologia ou modelo de apresentação para os relatórios, o que dificulta a “fiscalização e controle de falhas e vieses” das plataformas na produção dos documentos e a comparação da performance de moderação e de transparência entre diferentes plataformas e da mesma plataforma em diferentes períodos de tempo.

Vice-Presidente da Comissão de Privacidade e Proteção de Dados da OAB-RJ, Samara Castro chama atenção para a ausência de debate com a perspectiva de direitos dos usuários em relação aos sistemas de automatização. Pelo projeto, as redes terão que notificar perfis alvos de punições e informar se a decisão foi tomada exclusivamente por meio de sistemas automatizados.

— Além de mecanismos para prestar conta, o usuário precisa ter como exercer seus direitos a partir das informações. O que ele pode fazer após as explicações? A única forma é parar de usar a plataforma? — questiona a advogada.

As plataformas, por sua vez, alegam que o detalhamento de seus sistemas vai fornecer uma “receita de bolo” para quem pretende violar suas políticas, apesar de o texto fazer uma ressalva à “segurança em face de atores maliciosos”, e que divulgar dados como o número de seus usuários ativos colocaria em xeque estratégias de competitividade das plataformas, o que não acontece com empresas de outros setores, que não ficam obrigadas a divulgar dados.

O GLOBO apurou que um dos ajustes defendidos pelas maiores empresas é que o relatório semestral não seja público e fique restrito a autoridades, em um modelo semelhante ao do Conselho Administrativo de Defesa Econômica (Cade). Outro ponto criticado pelas redes é o prazo de 180 dias para que comecem a divulgar os documentos semestrais, considerado insuficiente. Isso porque parte das informações exigidas não seria produzida para relatórios já existentes.

Na prática, já há tentativas de burlar os sistemas automatizados. Influenciadores da base bolsonarista, como a deputada Bia Kicis (PSL-DF), têm usado palavras como “vax”, “picada” e “marca” para substituir “vacina” em transmissões ao vivo e títulos de vídeos com o objetivo de não serem detectados pelos algoritmos. O mesmo aconteceu com a cloroquina e a ivermectina, chamados de “aquele remédio”.

O Globo