
- STF decidiu que redes sociais respondem por conteúdos ilegais, mesmo sem ordem judicial.
- Plataformas precisarão remover postagens rapidamente após notificação extrajudicial.
- Empresas deverão ter representante legal no Brasil, com poder para agir em nome da marca.
Na quinta-feira (26), o Supremo Tribunal Federal (STF) decidiu que redes sociais e plataformas digitais devem assumir responsabilidade por conteúdos ilegais postados por usuários, mesmo quando não há ordem judicial. O julgamento terminou com 8 votos a 3 e marcou uma virada no entendimento sobre o artigo 19 do Marco Civil da Internet.
Antes disso, as plataformas só respondiam por danos se descumprissem uma decisão judicial. Agora, essa lógica foi derrubada. As empresas precisarão remover postagens ofensivas ou criminosas assim que forem notificadas. Isso inclui crimes como pornografia infantil, discurso de ódio e apologia ao crime.
Além disso, em situações envolvendo calúnia, injúria ou difamação, uma simples notificação extrajudicial será suficiente. Com repercussão geral, essa decisão passa a ser obrigatória em todos os tribunais do país, o que amplia seu impacto de forma imediata.
Julgamento revelou divisão no Supremo
Entenda a Decisão do STF sobre Redes Sociais
Durante o julgamento, os ministros demonstraram diferentes visões sobre o tema. Alexandre de Moraes, Luiz Fux e Dias Toffoli votaram por derrubar totalmente o trecho do artigo 19. Para eles, as plataformas não podem continuar isentas em casos de violações graves aos direitos fundamentais.
Por outro lado, Edson Fachin, André Mendonça e Nunes Marques defenderam a regra atual. Eles argumentaram que a remoção sem ordem judicial abre brechas para censura e pode comprometer a liberdade de expressão dos usuários.
Já ministros como Zanin, Cármen Lúcia e Gilmar Mendes adotaram uma posição intermediária. Eles propuseram ajustes pontuais, mantendo a exigência judicial em situações menos graves, mas permitindo a responsabilização imediata em casos extremos.
O que muda para as plataformas
As redes sociais precisarão se adaptar rapidamente. A partir de agora, as empresas devem implantar mecanismos de moderação automatizada, capazes de identificar e retirar conteúdos ilegais com agilidade. Isso exige investimento em tecnologia e revisão de políticas internas.
Além disso, as plataformas terão que oferecer canais de denúncia acessíveis e funcionais, com prazos curtos para resposta. A meta é analisar e agir sobre denúncias em até 48 horas. Para garantir transparência, as empresas precisarão publicar relatórios periódicos com dados sobre remoções e recursos.
Outro ponto essencial é a obrigatoriedade de manter um representante legal no Brasil. Esse agente, que deve ter CNPJ brasileiro, responderá diretamente à Justiça e aos órgãos reguladores. Ele também cuidará dos relatórios de transparência e das interações institucionais.
O que continua em vigor
Mesmo com a mudança, o STF decidiu preservar parte do artigo 19. Assim, plataformas de e-mail, grupos fechados e serviços como Zoom ou WhatsApp seguirão protegidos, desde que não envolvam interação pública.
Contudo, o Supremo criou exceções. Quando o conteúdo for patrocinado, impulsionado ou promovido por robôs e redes artificiais, a responsabilização será automática. As empresas responderão independentemente de ordem judicial ou notificação.
Essas exceções miram diretamente conteúdos que envolvem desinformação paga ou manipulação em larga escala. O objetivo, segundo os ministros, é proteger a democracia e impedir a proliferação de conteúdos nocivos financiados.
Reação do governo e próximos passos
O governo Lula evitou tomar posição nas audiências públicas de 2023. No entanto, após a decisão, a AGU comemorou publicamente o resultado. O ministro Jorge Messias declarou que “não é aceitável que plataformas lucrem com conteúdos ilegais e se isentem da responsabilidade”.
Além disso, a decisão deve influenciar os debates no Congresso. Parlamentares já discutem novas leis para complementar o Marco Civil da Internet. A expectativa é que o Legislativo crie normas sobre uso de inteligência artificial, anúncios pagos e limites para a moderação.
No geral, a decisão do STF estabelece um novo padrão para o ambiente digital. Agora, as plataformas precisarão mostrar responsabilidade, agir com mais rapidez e manter estruturas locais para prestar contas à Justiça.