O Supremo Tribunal Federal formou maioria no julgamento que define o regime de responsabilidade civil das plataformas digitais quanto aos danos causados por conteúdos de terceiros. Ou seja, ficam passíveis a indenizar eventuais afetados por conteúdos ilícitos veiculados que firam direitos individuais ou coletivos.
Uma interpretação restritiva do Artigo 19 do Marco Civil da Internet indicaria que as empresas só teriam que responder após o descumprimento de ordem judicial para retirada de determinado conteúdo.
O tema chegou à análise do STF a partir de dois recursos extraordinários (1.037.396 e 1.057.258) afetados à sistemática de repercussão geral, quando a relevância social, política ou econômica do que se discute transcende o mero interesse das partes e a tese fixada no julgamento passa a ser aplicada por todas as instâncias em casos análogos.
Não faltaram críticas a um suposto ativismo da Corte. Mas, neste caso, ela apenas cumpre seu dever constitucional. Os dois recursos já tramitam há uma década – vejam, um deles é sobre uma comunidade do Orkut! –, tempo mais do que suficiente para que o Congresso deliberasse sobre um tema fulcral para a sociedade e debatido em todo o mundo democrático. Se ao Legislativo e ao Executivo a omissão é possível, o Judiciário, quando provocado, por mais que seja prudente a autocontenção, passa a ter o dever de decidir, principalmente em matéria constitucional.
Será necessário uniformizar o novo entendimento, uma vez que os votos já apresentados trazem vieses distintos para a responsabilização, deveres de cuidado e a autoridade responsável por fiscalizar, mas já é fato consumado que o atual modelo, baseado numa espécie de imunidade regulatória das big techs, não seguirá em vigor. É desejável que essa parametrização se materialize em tese vinculante, objetiva e de fácil operacionalização.
O modelo de não responsabilização contribuiu para o desenvolvimento e a inovação, mas se tornou obsoleto e insuficiente
Críticos fatalistas (e alguns oportunistas) alegam que a responsabilização das plataformas levaria a uma forma de censura prévia e privada – diante do temor de penalização, argumentam, as empresas tenderiam a ampliar a moderação e remoção de conteúdos. É sempre salutar que sejam observadas salvaguardas aos usuários e a transparência na moderação, mas esse argumento não se sustenta, porque jamais esteve em debate a validação ou invalidação de discursos em si. O que se busca é evitar que crimes continuem sendo cometidos nas redes, sob a omissão (e até com lucros) para as big techs.
Não se trata também de demonizar o Art. 19 do Marco Civil da Internet, mas de reconhecer que ele teve seu papel nos primórdios das redes sociais, quando ainda se acreditava em sua neutralidade. O modelo de não responsabilização pode ter contribuído para o desenvolvimento e a inovação tecnológica naquele período, mas se tornou obsoleto e insuficiente para os desafios atuais. A ideia de que startups estão sendo tolhidas ignora a realidade: essas empresas se tornaram algumas das mais poderosas e lucrativas do planeta. Ao uniformizar a nova interpretação, será essencial considerar as diferenças entre tipos e portes de plataformas, assim como os riscos associados a cada uma.
É importante ter em mente que nenhum segmento econômico deve estar imune a padrões mínimos de regulação de sua prestação de serviços. Mesmo o poderoso sistema financeiro, a título de exemplo, é regulado por lei específica, como a Lei 4.595/64, e instituições como o Banco Central e a Comissão de Valores Mobiliários (CVM), dentre outras. Além de que, a Súmula 297 do Superior Tribunal de Justiça cristalizou o entendimento de que “o Código de Defesa do Consumidor é aplicável às instituições financeiras”, levando à edição de nova Súmula, a 479, em que o STJ estabelece a responsabilidade objetiva dos bancos por fortuito interno relativo a fraudes e delitos de terceiros nas operações bancárias.
Esse entendimento decorre da Teoria do Risco, adotada pelo Código Civil e pelo Código de Defesa do Consumidor, que impõe a reparação do dano, independentemente de culpa, quando a atividade envolve, por sua natureza, risco a terceiros (art. 927, parágrafo único, do CC). O princípio aplica-se perfeitamente às plataformas diante da multiplicação de perfis que disseminam conteúdos ilícitos e links fraudulentos — com geração de receita para as empresas.
Nesse sentido, o voto do ministro Flávio Dino, aparentemente busca uma síntese entre as posições externadas pelos relatores, ministros Dias Toffolli e Luiz Fux, pela inconstitucionalidade do Art. 19, e as nuances trazidas pelo presidente Luís Roberto Barroso, com justas preocupações quanto à liberdade de expressão.
O caminho que se constrói traz algumas linhas gerais que, a meu ver, seguem na direção correta, levando em conta as melhores práticas e experiências internacionais para responsabilidade das plataformas. Primeiro, integra o regime do Art. 19, quando há necessidade de notificação judicial, em exceção aplicável apenas para alegações de ofensas e crimes contra a honra – abarcando a preocupação com excessos limitadores da liberdade de expressão. Expressa uma leitura sistêmica da legislação brasileira.
Como regra, define a responsabilidade civil das plataformas, passando estas a responder subsidiariamente (ou seja, se o usuário não a cumprir) por danos decorrentes de conteúdos de terceiros, nos termos do Art. 21 do Marco Civil da Internet, que até o momento só é aplicável em casos de violação de intimidade (conteúdos de nudez e atos sexuais). Atenção: segue necessária a notificação do usuário à plataforma sobre o conteúdo lesivo, agora sem necessidade de acesso à justiça, tendo a empresa a oportunidade de moderá-lo de forma diligente.
O julgamento dá relevo à responsabilidade objetiva (a do Art. 927 do CC) das plataformas sobre os chamados “atos próprios”, que são as postagens de perfis anônimos, falsos e chatbots, bem como conteúdos ilícitos veiculados em anúncios pagos ou patrocinados. Esse é um passo importante para coibir, por exemplo, campanhas contra a saúde pública e mesmo golpes praticados no ambiente digital.
Outro ponto que emerge dos debates no Supremo é o conceito de “falha sistêmica”, quando não há observância aos deveres de cuidado, que seriam falhas na segurança esperada da prestação de serviços, aqui evocando o regime de responsabilidade objetiva, independentemente de culpa, do Art. 14, §1º, II do Código de Defesa do Consumidor, assunto que já abordamos acima.
Nesse caso, a opção indica um rol taxativo de crimes a serem abarcados: a) crimes contra crianças e adolescentes; b) induzimento ou auxílio ao suicídio ou automutilação; c) terrorismo (lei 13.260/2016); e d) crimes contra o Estado Democrático de Direito. Importante destacar que a mera existência de conteúdos desse rol, de forma esparsa e isolada, não geraria a responsabilização. Busca-se, portanto, coibir a postagem coordenada e massiva desses conteúdos, capaz de causar os riscos sistêmicos.
Como último tópico, reconhece e valoriza boas práticas, indicando que as plataformas devem elaborar normas próprias de autorregulação, de modo que as moderações de conteúdos realizadas sejam acompanhadas de notificações, canais para que o próprio usuário possa defender sua manifestação, a partir do chamado “devido processo”, além de relatórios de transparência. Incumbe ainda à PGR – ou seja, o Ministério Público Federal – de fiscalizar o cumprimento das normas até que uma lei específica seja editada, mas a autoridade reguladora, ponto complexo, segue como elemento a ser consensualizado.
Os pontos centrais levantados pela Suprema Corte trazem muitos dos conceitos debatidos e desenvolvidos no contexto da tramitação do PL 2630, do qual fui relator na Câmara dos Deputados e que buscava traduzir e adaptar para o contexto brasileiro as experiências internacionais mais exitosas e reconhecidas de regulação das plataformas digitais, como o Digital Services Act da União Europeia, além das inúmeras contribuições de especialistas, da sociedade civil e das próprias empresas.
O locus próprio para o desenho da melhor legislação sobre tema tão urgente e sujeito a mudanças rápidas, dados os avanços tecnológicos, seria, sem dúvida, o Congresso. Mas é notório que, provocado e obrigado a decidir, o STF tem caminhado para uma compreensão sistêmica e contemporânea das plataformas digitais, cuja responsabilização precisa ser atualizada à luz dos novos desafios da sociedade da informação.