Por 8 votos a 3, o STF decidiu que o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é parcialmente inconstitucional. Dessa forma, as redes sociais deverão ser responsabilizadas por postagens criminosas ou ofensivas de seus usuários.
Com o avanço da desinformação, discursos de ódio e crimes virtuais, o entendimento do STF passa a ampliar a responsabilidade das empresas. Essa mudança, no entanto, levanta dúvidas sobre como equilibrar a proteção contra danos e a preservação do espaço democrático para diferentes opiniões.
O que dizia o Artigo 19
O Marco Civil da Internet foi instituído como uma espécie de “Constituição da rede” no Brasil, estabelecendo princípios de neutralidade, privacidade e liberdade de expressão. O Artigo 19 do Marco Civil estabelecia que, com o intuito de assegurar a liberdade de expressão e impedir a censura, os usuários seriam responsabilizados pelos conteúdos que postassem, não as plataformas. Dessa forma, as redes sociais só poderiam ser responsabilizadas se, após ordem judicial específica, não removessem conteúdos considerados ilegais. Com a mudança, as redes deverão levar em conta a notificação extrajudicial para remover um conteúdo irregular.
Pela decisão, as plataformas devem retirar os seguintes tipos de conteúdo ilegais após notificação extrajudicial:
- Atos antidemocráticos;
- Terrorismo;
- Incitação à discriminação por raça, religião, identidade de gênero, condutas homofóbicas e transfóbicas;
- Crimes contra a mulher e conteúdos que propagam ódio contra a mulher;
- Induzimento ao suicídio e automutilação;
- Pornografia infantil;
- Tráfico de pessoas.
Preocupação com a liberdade de expressão
Uma das principais preocupações geradas por essa decisão e por futuras regulamentações é o potencial impacto na liberdade de expressão. Ao aumentar a responsabilidade das plataformas, é esperado que elas adotem uma postura excessivamente cautelosa, conhecida como “over-blocking”, removendo conteúdos que, embora polêmicos, não são necessariamente ilegais. Esse receio levanta a questão de se empresas privadas poderiam assumir um papel de controle sobre o que pode ser dito online, em vez de funcionar como facilitadoras neutras do debate público.
No entanto, é possível prever que esse controle não será fácil. Mesmo com as plataformas já aplicando moderação e reduzindo o alcance de temas polêmicos, os usuários frequentemente encontram maneiras de contornar esses controles. Um exemplo comum é a troca de letras por números em palavras sensíveis (“morte” vira “m0rt3”, “estupro” vira “3stupR0”), o que dificulta a detecção por algoritmos.
Um debate complexo e polarizado
Além das questões jurídicas e práticas, a regulação das redes sociais é mais um tema que causa debate carregado de polarização política. De um lado, setores do governo defendem um controle mais rígido das redes sociais, argumentando que medidas firmes são necessárias para combater desinformação e discursos de ódio. Do outro, a oposição sustenta que ampliar o poder de moderação das plataformas representa uma ameaça concreta à liberdade de expressão, podendo abrir caminho para a censura.
A controvérsia também se intensifica pelo fato de que o Marco Civil da Internet, que estabeleceu a base legal para a regulação da rede no país, foi amplamente debatido e votado no Congresso Nacional. Já a mudança recente decorre de uma interpretação do Supremo, sem passar por um novo processo legislativo.
Além disso, mesmo entre os ministros da Corte, houve divergências marcantes. Autor de um dos três votos contrários à mudança, o ministro Nunes Marques destacou que a liberdade de expressão é cláusula pétrea da Constituição e deve ser protegida. Dessa forma, a responsabilidade pela publicação de conteúdos é de quem causou o dano, ou seja, o usuário.
Já o presidente do Supremo Tribunal Federal (STF), ministro Luís Roberto Barroso, declarou durante o Fórum de Lisboa que “Não há nenhum tipo de censura envolvida, a menos que alguém ache que impedir pornografia infantil na rede seja censura”.


