O ministro André Mendonça, do Supremo Tribunal Federal, votou nesta quinta-feira 5 para manter o artigo 19 do Marco Civil da Internet, que trata da responsabilização das plataformas sobre o conteúdo de terceiros. O ministro abriu divergência e foi o primeiro a se manifestar contra a possibilidade de remoção de perfis que não sejam falsos.

Para ele, “é inconstitucional a remoção ou a suspensão de perfis de usuários, exceto quando comprovadamente falsos“, seja porque estão “relacionados a pessoa que efetivamente existe, mas denuncia, com a devida comprovação, que não o utiliza ou criou, ou relacionados a pessoa que sequer existe fora do universo digital”, os chamados robôs.

Além disso, afirmou que não cabe ao Judiciário formular um “eventual novo marco regulatório” para as plataformas digitais.

Interrompido em dezembro por um pedido de vista do magistrado, o julgamento foi retomado na quarta-feira 4 e já tem três votos para derrubar o artigo 19 do Marco, abrindo caminho para que as empresas sejam minimamente responsabilizadas e ampliando as possibilidades de remoção de conteúdo nocivo.

No início da leitura do voto, Mendonça mencionou a prerrogativa do Congresso Nacional para legislar sobre as regras do Marco e fez uma análise sobre o fenômeno das redes sociais e das fake news.

“Ao assumir maior protagonismo em questões que deveriam ser objeto de deliberação por parte do Congresso, o Judiciário acaba contribuindo, ainda que não intencionalmente, para a sensação de desconfiança hoje verificada em parcela significativa da nossa sociedade”, pontuou o ministro.

Ao citar o que chamou de sentimento de “desconexão da população com os mecanismos políticos tradicionais”, ele disse considerar que combater fake news exclusivamente com medidas jurídicas pode ser “contraproducente”. Embora mentir seja eticamente condenável, afirmou, a punição a discursos mentirosos pela via judicial seria justificável “quando houver risco concreto e imediato de dano”.

O Marco Civil, que entrou em vigor em 2014, funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas. O trecho questionado pelos magistrados define que as big techs só podem ser condenadas por postagens de usuários caso descumpram ordens judiciais para removê-las.

A lei aguardava julgamento há sete anos e os processos entraram e saíram da pauta três vezes. Na última, foram adiados depois de pedido da Câmara dos Deputados, devido à previsão de votação do PL das Fake News, enterrado em abril após a ofensiva das plataformas e de parlamentares bolsonaristas para barrar a proposta.

O julgamento no STF ocorre sob intensa pressão política. De um lado, o governo Lula (PT) tem cobrado mais mecanismos para conter a desinformação nas redes. De outro, as empresas de tecnologia alertam para o risco de decisões judiciais que, na prática, funcionem como uma regulação sem passar pelo crivo do Congresso Nacional.

Nesta quinta-feira, André Mendonça apresentou uma quarta tese: segundo ele, em vez de responsabilização automática por conteúdos ilícitos, seria preciso adotar “deveres procedimentais e práticas de compliance” como base da regulação das redes. Também defendeu a segmentação regulatória com base no impacto e na função da plataforma.

No caso das redes sociais, de acordo com o ministro, mencionou que alguns fatores, como conteúdo da mensagem, público-alvo e forma de disseminação, devem ser considerados para fins de responsabilização. Em situações em que houver remoção sem ordem judicial, ele afirmou ser necessário garantir aos usuários uma justificativa detalhada sobre a decisão e a possibilidade de recorrer.

Ainda de acordo com ele, anular o artigo 19 na íntegra poderia ter impactos “nocivos” sobre modelos de plataformas colaborativas, a exemplo da Wikipedia. A responsabilização, conformou explicou, deve recair sobre o descumprimento de deveres próprios da plataforma, e não pela hospedagem de conteúdos de terceiros.

Como está o placar no Supremo

Até o momento, votaram no caso os ministros José Dias Toffoli, Luiz Fux e Luís Roberto Barroso, presidente do STF. O próximo a se manifestar é Flávio Dino, de acordo com a ordem de votação prevista no Regimento Interno.

Primeiro a votar, Toffoli é relator do recurso movido pelo Facebook que tenta reverter uma decisão que condenou a empresa ao pagamento de indenização por ter mantido no ar um perfil falso responsável por divulgar conteúdos ofensivos.

Ele defendeu a derrubada do artigo 19 do Marco por considerá-lo “incapaz de oferecer proteção efetiva aos direitos fundamentais e resguardar os princípios e valores constitucionais fundamentais” no ambiente virtual.

Também sustentou que, em caso de conteúdos ofensivos ou ilícitos, as plataformas devem agir quando notificadas de forma extrajudicial — ou seja, já pela vítima ou por seu advogado. Se não removerem os conteúdos ofensivos, estariam sujeitas à responsabilidade objetiva de responder pelos danos, independente de culpa.

Pelos termos do voto, estas seriam as situações em que as big techs deveriam agir sem necessidade de notificação judicial: 

  • crimes contra o Estado Democrático de Direito;
  • atos de terrorismo ou preparatórios de terrorismo;
  • crime de induzimento, instigação ou auxílio a suicídio ou à automutilação;
  • crime de racismo;
  • violência contra a mulher, a criança, o adolescente e as pessoas vulneráveis;
  • qualquer espécie de violência contra a mulher;
  • tráfico de pessoas;
  • incitação ou ameaça da prática de atos de violência física ou sexual;
  • divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis;
  • divulgação de fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral.

O modelo de responsabilização proposto por ele baseia-se no que diz o artigo 21 do Marco, chamado por Toffoli de “sistema de notificação e análise”. Se as mudanças forem aprovadas pelo plenário do STF, caberá às plataformas analisar as publicações questionadas e verificar se devem ser removidas. A punição viria caso mantivesse no ar posts criminosos e se removerem indevidamente conteúdos regulares.

Ficariam isentos da responsabilização, conforme esse entendimento, provedores de e-mail, plataformas de reuniões fechadas por videoconferência e plataformas e blogs jornalísticos. Os aplicativos de mensagens não responderiam por conversas privadas, mas poderiam ser responsabilizados por conteúdos publicados em grupos públicos e canais abertos.

As plataformas de comércio eletrônico também poderiam ser punidas se permitirem o anúncio de produtos de venda proibida ou sem certificação e homologação por órgãos competentes, como as TV Box, proibidas pela Anatel.

O voto de Luiz Fux

No caso concreto, o ministro é relator de um recurso movido pelo Google que questionava se um provedor de serviços se torna responsável ao armazenar ofensas produzidas por usuários e se deve fiscalizar material previamente.

O caso tem relação com o antigo Orkut. Uma professora de ensino médio pediu a exclusão de uma comunidade chamada “Eu odeio a Aliandra”, criada em 2009 – antes do Marco – para veicular conteúdo ofensivo. A empresa negou o pedido, mas a Justiça entendeu que ela deveria ser responsabilizada pela não exclusão.

O Google, contudo, tem alegado que a remoção da comunidade antes da aprovação do Marco violaria a liberdade de expressão dos usuários. Para Fux, a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, a partir do momento em que há notificação da plataforma.

“Resta clara a insuficiência inconstitucional do regime de responsabilidade insculpido no artigo 19 do Marco Civil. A imunidade civil trazida pelo dispositivo só permite responsabilização das empresas provedoras no caso de descumprimento de ordem judicial de remoção”, declarou.

Ele também apontou para uma incompatibilidade da ausência de responsabilidade e direitos fundamentais. Para o ministro, diante de publicações “obviamente ofensivas”, a empresa tem “o dever de indisponibilizar o conteúdo na referida comunidade”. Fux ressaltou a ausência de responsabilidade das plataformas e a insuficiência do regime vigente.

A proposta do magistrado é que as plataformas sejam obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da medida, devem acionar a Justiça em busca de autorização para disponibilizar novamente o conteúdo. Outra medida envolve a criação de canais “eficientes, funcionais e sigilosos” para usuários denunciarem publicações que ofendam a honra, a imagem e a privacidade de terceiros, como injúria, calúnia e difamação.

Para Fux, se as publicações ilícitas forem impulsionadas mediante pagamento, as plataformas têm obrigação de removê-las sem notificação. “Conteúdos lesivos de direitos fundamentais, tais como fake news, discurso de ódio ou mesmo difamatórios, podem gerar engajamento substancialmente maior do que conteúdos lícitos e verdadeiros”, alertou o ministro.

Barroso ‘pula a fila’

Pelo regimento do tribunal, Barroso — por ser o presidente do STF — seria o último a votar. Mas o pedido de vista apresentado por ele logo após a manifestação de Fux permitiu que lesse seu voto antes. O ministro, embora tenha reconhecido a inconstitucionalidade parcial do art. 19, sugeriu ajustes que mantenham a regra geral com exceções ampliadas.

Propôs um sistema dual: de um lado, responsabilidade subjetiva para conteúdos gerados por terceiros; de outro, dever de cuidado em relação a riscos sistêmicos, como pornografia infantil, tráfico de pessoas e terrorismo. Para crimes contra a honra, defendeu a exigência de ordem judicial como salvaguarda à liberdade de expressão. Para os demais ilícitos, admitiu a remoção com base em notificação privada.

Barroso também cobrou do Congresso Nacional a aprovação de um marco regulatório que discipline a mitigação de riscos sistêmicos, com exigência de auditorias, relatórios e supervisão por órgão autônomo. Enquanto isso não ocorre, sugeriu o ministro, as plataformas deveriam publicar relatórios anuais de transparência, nos moldes do Digital Services Act europeu.

Categorized in:

Governo Lula,

Last Update: 05/06/2025