O Supremo Tribunal Federal (STF) decidiu, nesta quinta-feira (26), por 8 votos a 3, que plataformas digitais, como Google, Meta e TikTok, devem ser responsabilizadas por conteúdos ilícitos postados por usuários, mesmo sem ordem judicial, caso não removam o material após notificação da vítima. A decisão, que reformula a interpretação do artigo 19 do Marco Civil da Internet, gerou reação do Google, que expressou preocupação com os impactos na liberdade de expressão e na economia digital. Em nota, a empresa afirmou que está analisando a decisão e permanece aberta ao diálogo.
Detalhes da decisão do STF
A votação, concluída em 26 de junho de 2025, determina que plataformas devem monitorar ativamente conteúdos que envolvam discurso de ódio, racismo e incitação à violência, removendo-os após notificação, sem necessidade de ordem judicial. No entanto, para crimes contra a honra, como calúnia e difamação, a remoção ainda exige decisão judicial, conforme voto do presidente do STF, ministro Luís Roberto Barroso. O placar de 8 a 3, com dissidência dos ministros André Mendonça, Edson Fachin e Cármen Lúcia, estabelece que as empresas não serão responsabilizadas se comprovarem esforços para remover o conteúdo em tempo hábil.
A decisão tem repercussão geral, ou seja, servirá como precedente para casos semelhantes no Judiciário brasileiro. Barroso esclareceu que o STF não está legislando, mas julgando dois casos concretos, definindo critérios até que o Congresso Nacional regulamente a questão. “Plataformas precisam adotar precauções proativas, incompatíveis com apenas aguardar ordens judiciais”, afirmou o ministro, ecoando a opinião de Alvaro Palma de Jorge, professor da FGV-Rio.
Posicionamento do Google
Em nota oficial, o Google destacou preocupações com a ampliação da responsabilidade prevista no artigo 21 do Marco Civil da Internet, que trata da remoção de conteúdo após notificação. “As mudanças podem impactar a liberdade de expressão e a economia digital. Estamos analisando a tese aprovada e seus impactos em nossos produtos. Continuamos abertos ao diálogo”, declarou a empresa. Antes da votação, Fábio Coelho, presidente do Google Brasil, já havia alertado que a responsabilização prévia poderia levar à remoção preventiva de conteúdos, incluindo jornalismo investigativo e humor, gerando insegurança jurídica.
Contexto e implicações
A decisão do STF reformula o artigo 19 do Marco Civil da Internet, que antes limitava a responsabilidade das plataformas a casos de descumprimento de ordens judiciais. O debate ganhou força após os ataques de 8 de janeiro de 2023, quando apoiadores do ex-presidente Jair Bolsonaro invadiram o Congresso, o Palácio do Planalto e o STF, impulsionados por desinformação nas redes sociais. O julgamento, iniciado em 2024, foi motivado por casos envolvendo pornografia infantil, violência entre adolescentes e fraudes online.
Críticos, como o ministro André Mendonça, alertam que a medida pode ameaçar a liberdade de expressão, incentivando plataformas a remover conteúdos preventivamente para evitar multas. “A liberdade de expressão é essencial para responsabilizar instituições poderosas, incluindo governos e plataformas digitais”, argumentou Mendonça. Organizações também apontam que a decisão favorece grandes empresas com estruturas jurídicas robustas, prejudicando pequenas plataformas nacionais e a inovação.
A decisão também gerou tensões internacionais, com o secretário de Estado dos EUA, Marco Rubio, alertando sobre possíveis restrições de vistos a autoridades envolvidas em “censura” de cidadãos americanos, o que elevou o impacto geopolítico do caso. A abordagem do STF alinha o Brasil à União Europeia, que adota regulamentações rigorosas para plataformas digitais, como o Digital Services Act.
Repercussão e críticas
No X, a decisão foi amplamente debatida. Usuários como @karinamichelin e@Ramon4lan criticaram o STF, alegando que a medida legaliza a “censura” e ameaça a liberdade de expressão.
@K4f3i destacou que, no mesmo dia da decisão, a conta do Google Brasil no X foi trancada, levantando especulações sobre uma possível retaliação, embora sem confirmação. Por outro lado, defensores, como@josefernandesjr, argumentaram que a responsabilização é necessária para combater desinformação e crimes online.
A CNN Brasil relatou que o Google teme a criação de um ambiente de “censura” e insegurança jurídica, enquanto o Metrópoles destacou as críticas de Fábio Coelho ao STF. A ausência de critérios claros sobre o que constitui “conteúdo ilícito” preocupa especialistas, que temem decisões arbitrárias em casos futuros.