Google e Meta divergem sobre regulação pelo STF
Foto: Dado Ruvic/Illustration/Reuters
O início da audiência pública sobre o Marco Civil da Internet no STF revela um racha entre as chamadas big techs.
Enquanto a Meta, dona do Facebook e do Instagram, manteve-se inflexível na oposição a qualquer tipo de punição por conteúdo de terceiros, o Google mostrou que já conta com alguma mudança no regime de responsabilidade e partiu para a fase de redução de danos.
Em seu discurso na audiência pública, o advogado sênior do Google Brasil, Guilherme Cardoso Sanchez, propôs uma série de medidas para que as possíveis exceções de imunidade no artigo 19 da lei sejam delimitadas, específicas, e não resultem no desmoronamento completo do Marco Civil.
O Marco Civil, de 2014, é a principal lei que regula a internet no Brasil e determina que as plataformas só podem ser responsabilizadas civilmente por conteúdos de terceiros se não cumprirem ordens judiciais de remoção.
“Caso se entenda pela ampliação das hipóteses legais para a remoção extrajudicial de conteúdo, é necessário estabelecer garantias procedimentais e critérios”, disse Sanchez em sua fala durante a audiência.
“O legislador pode até discutir aperfeiçoamentos a esse sistema [Marco Civil], mas trocar a segurança do artigo 19 por um regime de responsabilização baseado em critérios abertos ou pouco precisos levaria a um cenário extremamente problemático.”
Sanchez apontou as consequências de retirar a imunidade das plataformas em casos pouco específicos ou subjetivos –”incentivaria as plataformas a presumir a ilegalidade de todo conteúdo controverso, porque essa é a forma mais racional de evitar o risco de responsabilidade civil; desestimularia o comportamento responsável das pessoas, na medida em que a conta de sua irresponsabilidade seria transferida para as empresas; e incentivaria uma enxurrada de novas ações judiciais de indenização contra as plataformas”.
Segundo o Google, para evitar a banalização dos pedidos de remoção e o incentivo à censura é necessário que as notificações apontem “o conteúdo que se considera ilícito de forma inequívoca”, apresentem justificativas que expliquem de forma exata o motivo da suposta ilicitude da postagem, e prazos e procedimentos adequados.
Ou seja, a manifestação do Google demonstra que a empresa tem consciência de que o ambiente de discussão de regulação da internet no Brasil mudou completamente.
No início de 2020, quando começou a tramitar o PL das Fake News no Congresso, a discussão era centrada na necessidade de ampliar a educação midiática e preservar a liberdade de expressão.
Agora, após a pandemia de Covid, o ataque ao Capitólio americano em janeiro de 2021 e a violência golpista em Brasília em janeiro de 2023, há uma enorme pressão para responsabilizar as empresas por conteúdo que tenham impactos no mundo real.
Parte das empresas calcula que será necessário fazer concessões, como aceitar responsabilização por conteúdo monetizado ou impulsionado, ou por exceções muito específicas ao artigo 19 do Marco Civil.
Aparentemente, essa não é a posição da Meta, dona do Facebook e Instagram.
Em seu discurso, Rodrigo Ruf, gerente jurídico do Facebook, afirmou reconhecer que mais pode ser feito pela integridade das plataformas e que apoia discussão de regulação complementar. Para isso, no entanto, propôs apenas “seguir aprimorando a aplicação das suas políticas”.
Ele também criticou a imunidade parlamentar oferecida pelo PL 2630 e falou que as empresas devem fazer autorregulação.
Ou seja, a proposta da Meta é simplesmente aprimorar a aplicação de suas políticas, fazer mais do mesmo.
Em fala na abertura da audiência, o ministro Alexandre de Moraes afirmou que “todos concordam que modelo atual é ineficiente, o modelo atual é falido no mundo todo”. E completou, usando uma expressão que repete em suas críticas “não é possível continuarmos achando que as redes sociais são terra de ninguém”.
“As plataformas mostram que também querem evoluir, não há antagonismo, há maneiras diversas de enxergar o mesmo problema, mas todos reconhecem que o problema existe e é necessário alterar o modelo.”
Não está claro se a Meta acha que o modelo atua tem problemas.
Normalmente, as big techs são retratadas como um bloco único, unidas em combate contra todas as regulações. E é claro que tanto Google quanto Meta continuam alertando para os perigos reais das mudanças no Marco Civil.
E as duas afirmam que já que já removem, em larga escala, muito conteúdo ilegal ou que fere as regras de moderação —ainda que não saibamos exatamente quanto, porque eles só apresentam números agregados, não dividem por tipo de conteúdo retirado, nem compraram com o universo total de conteúdos.
Mas, enquanto a Meta quer apenas fazer mais do mesmo, o Google já contempla um aumento de responsabilidade, com exceções bem delineadas ao MCI, dentro de parâmetros que reduzam a ameaça à liberdade de expressão.
E é importante apontar que os casos em análise pelo STF não são os melhores para se discutir se as redes devem, ou não, ser responsabilizadas por conteúdos de terceiros antes de receberem notificação.
No recurso extraordinário relatado pelo ministro Luiz Fux, uma professora de Minas Gerais pediu que o Orkut (que foi comprado pelo Google) tirasse do ar uma comunidade contra ela, com críticas e ofensas. Ela não foi atendida, e pede ao Google, além da remoção, indenização por danos morais.
No recurso relatado pelo ministro Dias Toffoli, uma mulher pediu ao Facebook a remoção de um perfil falso que fingia ser ela e ofendia várias pessoas. O Facebook se recusou a agir. Ela pede a derrubada do perfil e indenização por danos morais.
Nos dois casos, entra-se no terreno pantanoso de liberdade de crítica –muito diferente de pedir remoção de postagens de políticos incitando milhares de apoiadores a invadir o Congresso e pedir intervenção militar para reverter o resultado da eleição.
Mas a audiência pública e as decisões do STF tratam de um tema que vai muito além desses dois recursos –e devem servir de baliza para a atual discussão dentro do Executivo e do Congresso (PL 2630) sobre a regulação ampla das redes sociais.