O Supremo Tribunal Federal (STF) encontra-se diante de um julgamento de impacto seminal para o ecossistema digital e a liberdade de expressão no Brasil: a definição sobre a responsabilidade civil das plataformas de internet por conteúdos ilegais gerados e postados por seus usuários. A Corte retomou a análise da constitucionalidade do Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), norma fundamental que estabeleceu direitos e deveres para o uso da rede no país.
O que está em jogo?
No cerne da discussão está o Artigo 19, que, "com o intuito de assegurar a liberdade de expressão e impedir a censura", determina que os provedores de aplicações de internet (como redes sociais e sites de busca) somente podem ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomarem as providências para tornar indisponível o conteúdo apontado como infringente.
O julgamento, que havia sido suspenso em dezembro do ano anterior após um pedido de vista do ministro André Mendonça, foi reiniciado com a apresentação do voto deste, que devolveu o processo à pauta.
As divergências na Corte: um panorama dos votos proferidos
Até o momento da retomada, três ministros já haviam se manifestado, revelando nuances importantes sobre o futuro da moderação de conteúdo online:
Luís Roberto Barroso (Presidente do STF): Propôs uma responsabilização parcial das plataformas. Para o ministro, conteúdos manifestamente ilícitos – como os que envolvem pornografia infantil, apologia ao suicídio, tráfico de pessoas, terrorismo e ataques diretos ao Estado Democrático de Direito – deveriam ser removidos pelas redes sociais mediante notificação dos envolvidos ou de autoridades competentes, sem a necessidade imediata de ordem judicial. No entanto, para casos de ofensas e crimes contra a honra, Barroso entende que a remoção deve continuar condicionada a uma decisão judicial, mantendo o espírito atual do Artigo 19 para essas situações.
Dias Toffoli e Luiz Fux: Defenderam uma responsabilização mais ampla das plataformas. Ambos os ministros votaram no sentido de que as empresas devem remover, após notificação extrajudicial (ou seja, sem a necessidade prévia de uma decisão judicial), uma gama maior de conteúdos considerados ilegais. Isso incluiria, por exemplo, mensagens com discurso de ódio, incitação à violência, racismo e outros conteúdos que atentem contra a democracia.
Casos concretos que impulsionam o debate
Dois Recursos Extraordinários (RE) com repercussão geral reconhecida estão sendo julgados em conjunto:
RE 1.037.396 (Relatoria do Ministro Dias Toffoli): Originado de uma ação em que o Facebook (atual Meta) recorre de uma decisão judicial que o condenou por danos morais devido à manutenção de um perfil falso que causou prejuízos a um usuário. Discute-se a validade da exigência de ordem judicial prévia para a responsabilização dos provedores por atos ilícitos de terceiros.
RE 1.057.258 (Relatoria do Ministro Luiz Fux): Trata de um recurso do Google contra decisão que o obrigou a fiscalizar e remover conteúdos ofensivos de um blog hospedado em sua plataforma (Blogger) sem necessidade de intervenção judicial. O caso levanta a questão sobre o dever de monitoramento proativo e remoção de conteúdo por parte das empresas que hospedam sites.
Argumento das Plataformas: liberdade de expressão e riscos de censura
Durante as primeiras sessões do julgamento, representantes das grandes empresas de tecnologia defenderam a manutenção do modelo atual, onde a responsabilização civil ocorre primordialmente após o descumprimento de uma ordem judicial. Argumentam que já realizam a remoção de vastas quantidades de conteúdo ilegal de forma extrajudicial, com base em seus termos de serviço e em notificações. Sustentam, ainda, que a imposição de um dever de monitoramento prévio ou a responsabilização automática por conteúdo de terceiros sem decisão judicial configuraria uma forma de censura prévia, com potencial para inibir a liberdade de expressão e sobrecarregar as plataformas com uma tarefa de fiscalização em massa, subjetiva e complexa.
Por que essa decisão é crucial?
A deliberação do STF transcende os casos específicos e tem o potencial de reconfigurar profundamente o ambiente online no Brasil. A decisão influenciará diretamente:
- A velocidade e a forma como conteúdos ilegais são removidos: Uma mudança na interpretação do Artigo 19 pode acelerar ou burocratizar a retirada de postagens.
- O papel das plataformas na moderação de conteúdo: Definirá se as empresas terão um papel mais ativo e preventivo ou se continuarão a agir majoritariamente de forma reativa a ordens judiciais.
- O equilíbrio entre liberdade de expressão e a coibição de abusos: O Supremo busca um ponto de equilíbrio entre garantir a livre manifestação do pensamento e proteger os cidadãos contra discursos de ódio, desinformação prejudicial, crimes contra a honra e outras ilegalidades.
- O combate à desinformação e aos ataques às instituições: Em um contexto de crescente preocupação com a disseminação de notícias falsas e campanhas de desinformação, a decisão pode fornecer novas ferramentas ou impor novos deveres às plataformas.
A sociedade brasileira e a comunidade jurídica internacional acompanham atentamente os desdobramentos deste julgamento, cientes de que o veredito do STF estabelecerá um precedente significativo para a regulação da internet e para a proteção de direitos fundamentais na era digital.