O Supremo Tribunal Federal (STF) anunciou, na noite de ontem, a retomada do julgamento que definirá as regras de responsabilização das grandes empresas de tecnologia, conhecidas como Big Techs, por conteúdos postados por usuários em suas plataformas. A decisão, que pode alterar o cenário digital no Brasil, está marcada para os próximos dias e promete intensificar o debate sobre liberdade de expressão, moderação de conteúdo e responsabilidade civil das plataformas digitais.
Contexto do Julgamento
O STF analisa a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que atualmente estabelece que plataformas como Meta (Facebook, Instagram e WhatsApp), Google (YouTube) e outras só podem ser responsabilizadas por conteúdos ilícitos de terceiros após descumprirem ordens judiciais para remoção. A discussão ganhou força após episódios como os ataques de 8 de janeiro de 2023, que expuseram falhas na autorregulação das redes sociais.
Os ministros Dias Toffoli e Luiz Fux, relatores das ações em pauta, já votaram pela inconstitucionalidade do artigo 19, propondo regras mais rígidas. Toffoli defende que as plataformas sejam responsabilizadas após notificações extrajudiciais para conteúdos ofensivos ou ilícitos, como desinformação, discurso de ódio, racismo ou incitação a golpes de Estado. Fux, por sua vez, sugere que as empresas monitorem proativamente conteúdos graves, como pedofilia ou ataques à democracia, independentemente de notificação.
O presidente do STF, ministro Luís Roberto Barroso, propôs uma abordagem mais moderada, defendendo o “dever de cuidado” das plataformas, com punições apenas em casos de falhas sistemáticas, mantendo o artigo 19 para crimes contra a honra, como calúnia e difamação.
Posicionamento das Big Techs
Empresas como Meta e Google defendem a manutenção do modelo atual, argumentando que a responsabilização ampla pode levar à remoção excessiva de conteúdos, comprometendo a liberdade de expressão e gerando uma “censura privada”. Em nota, o Google afirmou que abolir o artigo 19 não resolveria a circulação de conteúdos indesejados e destacou que remove milhões de postagens globalmente, como 208 milhões em 2024 por violações como pedofilia e discurso de ódio.
Por outro lado, a Advocacia-Geral da União (AGU) defende a ampliação da responsabilidade das plataformas, argumentando que a interpretação literal do artigo 19 é insuficiente para proteger direitos fundamentais previstos na Constituição de 1988. A AGU propõe que as Big Techs ajam imediatamente após notificações extrajudiciais em casos de desinformação, perfis falsos ou crimes graves.
Pressão Internacional e Contexto Político
O julgamento ocorre em meio a pressões externas, com relatos de ameaças de sanções do governo norte-americano caso o Brasil adote medidas rígidas contra as Big Techs, muitas delas sediadas nos EUA. Apesar disso, o STF manteve a data do julgamento, sinalizando independência. No Congresso, projetos como o PL das Fake News (PL 2630/2020) enfrentam resistência devido ao lobby das empresas e de setores conservadores, o que torna a decisão do STF ainda mais relevante.
Impactos Esperados
A decisão do STF terá repercussão geral, ou seja, servirá como precedente para todos os casos semelhantes na Justiça brasileira. Uma mudança no artigo 19 pode obrigar plataformas a adotarem sistemas de monitoramento mais robustos, aumentando custos operacionais e alterando a dinâmica de moderação de conteúdo. Críticos alertam para o risco de censura, enquanto defensores da regulamentação apontam a necessidade de combater a desinformação e crimes cibernéticos.
O julgamento também pode influenciar debates legislativos, como o PL 2338/2023, que regula a inteligência artificial no Brasil, e futuras propostas sobre proteção de crianças e concorrência digital.
Próximos Passos
O STF deve retomar o julgamento na próxima semana, com o voto do ministro Barroso e demais membros da Corte. A decisão final pode redefinir o equilíbrio entre liberdade de expressão e responsabilidade digital, impactando milhões de usuários e o funcionamento das plataformas no Brasil.