O Supremo Tribunal Federal tem quatro votos no julgamento sobre a constitucionalidade do artigo 19 do Marco Civil da Internet. As duas ações sob análise discutem a responsabilidade das redes sociais por conteúdos de terceiros e a possibilidade de remoção de material ofensivo a pedido dos ofendidos, sem a necessidade de ordem judicial.
O caso tem repercussão geral, ou seja, o que os ministros decidirem servirá de parâmetro para as instâncias inferiores em processos semelhantes.
O primeiro a votar foi o ministro Dias Toffoli, relator de um dos recursos. Para ele, o modelo atual dá imunidade às plataformas e é inconstitucional. Propõe que a responsabilização se baseie em outro dispositivo da lei, a prever a retirada do conteúdo mediante simples notificação.
Leia a tese proposta:
1 – É inconstitucional o art. 19, caput, e o § 1º do marco civil da internet, sendo inconstitucionais, por arrastamento, os demais parágrafos do art. 19.
2 – Como regra, o provedor de aplicações de internet será responsabilizado civilmente nos termos do art. 21, pelos danos decorrentes de conteúdos gerados por terceiros, inclusive na hipótese de danos à intimidade, à vida privada, à honra e à imagem, quando notificado pelo ofendido ou seu representante legal, preferencialmente pelos canais de atendimento, deixar de promover em prazo razoável as providências cabíveis, ressalvadas as disposições da legislação eleitoral e os atos normativos do Tribunal Superior Eleitoral.
3 – O provedor de aplicações de internet responde civilmente de forma objetiva, e independentemente de notificação pelos danos decorrentes de conteúdos gerados por terceiros, nas seguintes hipóteses:
- quando recomendem ou impulsionem de forma remunerada, ou não, os conteúdos;
- quando se tratar de conta inautêntica;
- quando se tratar de direitos do autor e conexos; e
- quando configurarem práticas previstas em rol taxativo.
4 – Os provedores que funcionarem como marketplaces respondem objetiva e solidariamente com o respectivo anunciante nas hipóteses de anúncios de produtos de venda proibida ou sem certificação, ou homologação pelos órgãos competentes.”
O segundo a votar — também pela inconstitucionalidade do artigo 19 — foi Luiz Fux, relator do segundo caso em votação. Sustentou que as empresas devem ser obrigadas a remover conteúdos ofensivos à honra, à imagem e à privacidade que caracterizem crimes (injúria, calúnia e difamação) assim que foram notificadas.
Em casos de discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado, segundo Fux, as plataformas devem realizar monitoramento ativo e retirar o conteúdo do ar imediatamente, sem necessidade de notificação.
Leia a tese do ministro:
“1 – A disposição do art. 19 do marco civil da internet não exclui a possibilidade de responsabilização civil de provedores de aplicações de internet por conteúdos gerados por terceiros nos casos em que, tendo ciência inequívoca do cometimento de atos ilícitos, seja por quanto evidente, seja porque devidamente informados por qualquer meio idôneo, não procederem à remoção imediata do conteúdo.
2 – Considera-se evidentemente ilícito o conteúdo gerado por terceiro que veicule discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao golpe de Estado. Nestas hipóteses específicas há para as empresas provedoras um dever de monitoramento ativo com vistas à preservação eficiente do Estado Democrático de Direito.
3 – Nos casos de postagens ofensivas à honra, à imagem e à privacidade de particulares, a ciência inequívoca da ilicitude por parte das empresas provedoras necessária à responsabilização civil dependerá de sua prévia e fundamentada notificação pelos interessados, que poderá ser realizada por qualquer meio idôneo, cabendo às plataformas digitais o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados.
4 – É presumido de modo absoluto o efetivo conhecimento da ilicitude do conteúdo produzido por terceiros, por parte da empresa provedora de aplicações de internet, nos casos de postagens onerosamente impulsionadas”.
O presidente do STF, Luís Roberto Barroso, proferiu o terceiro voto e inaugurou uma nova corrente, em busca de uma espécie de meio-termo. Ele avalia que a regra do Marco Civil sobre responsabilização das plataformas por conteúdos de terceiros não garante proteção suficiente a direitos fundamentais e a valores relevantes para a democracia.
Segundo ele, as redes devem retirar do ar postagens cujo conteúdo envolva pornografia infantil, suicídio, tráfico de pessoas, terrorismo e ataques à democracia.
Barroso considera, porém, haver situações, como nos crimes contra a honra, em que a remoção do conteúdo só deve ocorrer após ordem judicial. Assim, ainda que se alegue injúria, calúnia ou difamação, a postagem deve permanecer, sob pena de violação à liberdade de expressão.
Para o presidente do STF, as big techs devem ter o chamado dever de cuidado, ou seja, trabalhar para reduzir os riscos criados ou potencializados por suas plataformas.
Leia a tese de Barroso:
“1 – O art. 19 é só parcialmente inconstitucional. A exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente.
2 – Nos casos de crime, exceto de crimes contra a honra, notificação extrajudicial deve ser suficiente para a remoção de conteúdo.
3 – Nos casos de crimes contra a honra e de ilícitos civis em geral, continua a se aplicar a exigência de ordem judicial para a remoção.
4 – As empresas têm o dever de cuidado de evitar que determinados conteúdos cheguem ao espaço público, independentemente de ordem judicial ou de notificação privada: pornografia infantil e crimes graves contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio ou automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.
5 – Nos casos referidos no item IV acima, a responsabilização pressupõe uma falha sistêmica e não meramente a ausência de remoção de um conteúdo específico.
6 – Nos casos de anúncio ou impulsionamento pago, o conhecimento efetivo do conteúdo ilícito é presumido desde a aprovação da publicidade. Caso o provedor não adote providências em tempo razoável poderá ser responsabilizado ainda que não tenha havido notificação privada.”
Por fim, nesta quinta-feira 5, votou o ministro André Mendonça, com o entendimento mais favorável às big techs: manter a responsabilização das plataformas somente após decisão judicial.
O objetivo, de acordo com ele, é preservar a liberdade de expressão. “O cidadão, mais vigiado, mais ficará suscetível ao chamado efeito silenciador”, argumentou.
Mendonça afirmou também que remover perfis das rede sociais caracteriza um ato de censura prévia. “Para evitar nova manifestação que possa configurar um ilícito, tolhe-se a possibilidade de qualquer manifestação.”
Leia a tese:
“1 – Serviços de mensageria privada não podem ser equiparados a mídia social. Em relação a tais aplicações de internet, prevalece a proteção a intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação na espécie.
2 – É inconstitucional a remoção ou a suspensão de perfis de usuários, exceto quando [a] comprovadamente falsos — seja porque relacionados a pessoa que efetivamente existe, mas denuncia, com a devida comprovação, que não o utiliza ou não o criou; ou relacionados a pessoa que sequer existe fora do universo digital (o chamado ‘perfil robô’); ou [b] cujo objeto do perfil seja a prática de atividade em si criminosa.
3 – As plataformas em geral, tais como mecanismos de busca, marketplaces etc., têm o dever de promover a identificação do usuário violador de direito de terceiro. Observado o cumprimento da referida exigência, o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial contra si promovida.
4 – Nos casos em que admitida a remoção de conteúdo sem ordem judicial (por expressa determinação legal ou conforme previsto nos Termos e Condições de Uso das plataformas), é preciso assegurar a observância de protocolos que assegurem um procedimento devido, capaz de garantir a possibilidade do usuário [a] ter acesso às motivações da decisão que ensejou a exclusão, [b] que essa exclusão seja feita preferencialmente por ser humano [uso excepcional de robôs e inteligência artificial no comando de exclusão]; [c] possa recorrer da decisão de moderação, [d] obtenha resposta tempestiva e adequada da plataforma, dentre outros aspectos inerentes aos princípios processuais fundamentais.
5 – Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro, ainda que posteriormente qualificado como ofensivo pelo Poder Judiciário, aí incluídos os ilícitos relacionados à manifestação de opinião ou de pensamento.
6 – Há possibilidade de responsabilização, por conduta omissiva ou comissiva própria, pelo descumprimento dos deveres procedimentais que lhe são impostos pela legislação, aí incluída [a] a obrigação de aplicação isonômica, em relação a todos os usuários, das regras de conduta estabelecidas pelos seus Termos e Condições de Uso, os quais devem guardar conformidade com as disposições do Código de Defesa do Consumidor e com a legislação em geral; e [b] a adoção de mecanismos de segurança digital aptos a evitar que as plataformas sejam utilizadas para a prática de condutas ilícitas.
7 – Em observância ao devido processo legal, a decisão judicial que determinar a remoção de conteúdo [a] deve apresentar fundamentação específica e, [b] ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação.”