O que muda para as redes sociais com novas regras definidas pelo STF

Algumas das redes sociais mais usadas no Brasil. Foto: reprodução

O Supremo Tribunal Federal (STF) concluiu nesta quarta-feira (26) um julgamento histórico que redefine as regras de responsabilidade civil das plataformas digitais por conteúdos publicados por usuários. Por 8 votos a 3, os ministros declararam a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet (MCI), que exigia ordem judicial específica para responsabilizar redes sociais por postagens ofensivas.

A decisão estabelece três níveis distintos de responsabilização para provedores e redes sociais:

1. Remoção proativa para casos graves: plataformas deverão agir imediatamente, sem necessidade de notificação ou ordem judicial, para remover conteúdos com discurso de ódio, racismo, pedofilia, incitação à violência ou defesa de golpe de Estado. A omissão nesses casos poderá levar à responsabilização civil direta.

2. Notificação extrajudicial como gatilho: para outros tipos de conteúdo ilícito, como ataques pessoais e desinformação grave, as empresas serão responsabilizadas se não removerem o material após notificação extrajudicial e posterior reconhecimento judicial da ofensa.

3. Crimes contra a honra: mantém-se a exigência de ordem judicial para remoção de conteúdos envolvendo difamação, calúnia e injúria, como forma de preservar a liberdade de expressão.

O ministro relator Dias Toffoli destacou em seu voto que “o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional por omissão na proteção de direitos fundamentais”. A decisão vale até que o Congresso Nacional aprove nova legislação sobre o tema, com a Corte fazendo um apelo expresso para que os parlamentares se debrucem sobre a matéria.

Os 11 ministros do STF e Paulo Gonet, PGR. Foto: Fellipe Sampaio/STF

A expectativa é que o julgamento force mudanças significativas na atuação das plataformas digitais no Brasil. As grandes redes sociais deverão revisar suas políticas de moderação de conteúdo, implementar protocolos mais rigorosos para casos graves e estruturar canais eficientes para recebimento e processamento de notificações.

Também ficam obrigadas a manter relatórios de transparência sobre notificações recebidas e estabelecer representação formal no país.

A decisão lista categorias de conteúdo que exigem ação imediata das plataformas:
– Atos antidemocráticos (golpe de Estado, violência política)
– Terrorismo e atos preparatórios
– Indução ao suicídio ou automutilação
– Incitação à discriminação (racial, religiosa, de gênero)
– Crimes contra mulheres
– Pornografia infantil e crimes contra menores
– Tráfico de pessoas

O STF ressaltou que a responsabilidade surge quando há “falha sistêmica” – ou seja, quando a plataforma deixa de adotar medidas preventivas ou de remoção adequadas. Casos isolados não configuram automaticamente responsabilidade.

A Corte fez um apelo ao Legislativo para que elabore nova legislação sobre o tema, afirmando que a decisão judicial vale “enquanto não houver nova lei capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”.

A expectativa é que o julgamento force uma maior autorregulação por parte das plataformas e acelere a tramitação de projetos de lei sobre o tema no Congresso Nacional.

Artigo Anterior

Captura de Zambelli na Itália pode ‘se arrastar por meses’, diz embaixador

Próximo Artigo

Flávio Dino convoca audiência pública no STF  

Assine nossa newsletter

Assine nossa newsletter por e-mail para receber as últimas publicações diretamente na sua caixa de entrada.
Não enviaremos spam!