Definidas pelo Supremo Tribunal Federal em um conjunto de 14 diretrizes, as responsabilidades e obrigações das plataformas digitais em relação aos conteúdos que divulgam e impulsionam no Brasil representam um importante avanço. Ainda há muito a ser feito, no entanto, para que o País possa enfrentar o poder crescente e desregulado das big techs. Essa é a opinião do advogado Humberto Ribeiro, diretor-jurídico e um dos fundadores do Sleeping Giants Brasil – movimento inspirado em sua versão canadense, cuja missão é combater a disseminação de desinformação e discurso de ódio por meio da pressão pela desmonetização de sites e canais que os veiculam. Em nome da entidade, que atuou como amicus curiae no julgamento do STF, Ribeiro avalia os resultados da decisão e o papel que o Brasil ocupa hoje na luta pela regulamentação das redes.

CartaCapital: A decisão do STF é satisfatória?
Humberto Ribeiro: Assentamos nossas contribuições na diferenciação daquilo que deve ser responsabilidade das plataformas não pelo conteúdo em si, mas pelo papel que o provedor exerce na sua distribuição. O próprio Marco Civil da Internet, no artigo 3º, estabelece que a responsabilização deve ocorrer conforme a atividade desempenhada. Ou seja, não se trata do que o usuário publica, mas da atuação da plataforma na difusão desse conteúdo. Sugerimos uma gradação da responsabilidade conforme o grau de interferência do provedor. Propusemos uma sistemática além da discussão binária sobre a constitucionalidade do artigo 19. Para conteú­dos apenas publicados, ele pode ser aplicado. Para os otimizados via algoritmo, defendemos o regime do artigo 21, que trata do notice and take down (notificação do usuário e a retirada do provedor), regime em vigor na Europa. Já para os conteúdos publicitários a responsabilidade deve ser presumida.

CC: E foi adequada a diferenciação entre esses conteúdos?
HR: Em relação ao conteúdo publicitário, entendemos que a decisão do STF foi adequada. Nesse caso, o provedor é remunerado e lucra com a distribuição, não é um agente neutro. A decisão é satisfatória porque atinge o coração do modelo de negócios das big techs. Mais de 90% do faturamento da Meta vem de publicidade. No Google/Alphabet, é 75%. A sistemática aprovada atinge diretamente essa infraestrutura, e o Supremo foi feliz ao definir isso. Quanto ao conteúdo impulsionado por recomendação não remunerada, o tribunal não aprofundou a análise. Isso preocupa, pois as plataformas usam dados pessoais para dois fins: publicidade e recomendação algorítmica. Estudos mostram que essa lógica visa gerar dependência psíquica e vício, especialmente entre crianças e adolescentes. Há indícios em vários países de que essa recomendação tem gerado polarização política e transtornos mentais, ao aproximar usuários de conteúdos extremistas que, naturalmente, não buscariam.

CC: No caso de crimes mais graves, ficou definido que as plataformas somente poderão ser responsabilizadas em caso de “falha sistêmica”. Não é pouco?
HR: O Supremo estabeleceu um dever de cuidado específico que se aplica a questões relativas a crimes graves. Não é um dever de cuidado relacionado a, por exemplo, pessoas que dizem que a Terra é plana ou que um ator de tevê tem um relacionamento extraconjugal. Trata-se de crimes graves que ameaçam o Estado Democrático de Direito, a saúde pública, a dignidade humana das pessoas.

“A concentração de mercados é o universo mais problemático da discussão”, avalia Humberto Ribeiro

CC: Mas como caracterizar uma falha sistêmica?
HR: Esse é o grande desafio. No caso do Digital Services Act, na Europa, os provedores devem apresentar anualmente às autoridades um relatório com medidas adotadas, investimentos, treinamentos e revisões algorítmicas, para provar que estão enfrentando efetivamente conteúdos ilícitos. O STF propôs algo semelhante: que as plataformas publiquem relatórios anuais de transparência sobre moderação e recomendação algorítmica, permitindo à sociedade avaliar a eficácia dessas ações. A responsabilidade surge quando a plataforma não comprova ter adotado todas as medidas possíveis com a tecnologia disponível, e isso pode ser cobrado pelo MP, pela AGU ou pela sociedade civil.

CC: Como o Brasil se situa no cenário global de regulação das big techs?
HR: O Brasil dá um primeiro passo ainda tímido porque a discussão realizada no STF está muito assentada sobre a responsabilidade dos provedores por conteúdos produzidos por terceiros. Existe outra discussão que no Brasil é um tanto incipiente: a concentração de mercados que, na visão do Sleeping Giants, é o universo mais problemático da discussão sobre regulação de plataformas digitais. A Europa conseguiu dar alguns passos com uma legislação que começa a enfrentar e a discutir questões monopolistas, de cartel e de concentração nos mercados digitais. Essa é uma discussão que nem sequer é feita no Brasil.

CC: Onde mais precisamos avançar?
HR: O Brasil também não enfrenta outro ponto crucial: a transparência. Existem práticas consolidadas em legislações de outros países, especialmente na Europa, que aqui ainda não são debatidas, como transparência sobre a recomendação algorítmica, publicidade digital, quem paga pelos anúncios, qual audiência foi contratada e, principalmente, sobre publicidade política. Conteúdos eleitorais impulsionados ou promovidos devem estar disponíveis em plataformas abertas, acessíveis a jornalistas e à academia. Na Europa, repositórios de transparência são obrigatórios. O Brasil avança na responsabilização dos provedores e isso pode atrair reações políticas das plataformas, especialmente junto ao governo Trump. Como o País toma a dianteira na discussão, há temor de que isso influencie toda a América Latina, e as plataformas devem reagir para conter esse efeito.

CC: Há uma associação tácita entre as big techs e a extrema-direita?
HR: Existem indícios acadêmicos de que o modelo de negócios dos provedores de recomendação algorítmica é enviesado à direita. No Brasil, em 2018, o ­YouTube recomendava majoritariamente canais bolsonaristas. Situações semelhantes ocorreram em Mianmar, onde o ­Facebook contribuiu para a criação de um ecossistema de extrema-direita que culminou no genocídio de uma minoria étnica, e na Alemanha, com o crescimento da ultradireitista legenda AfD. Há um padrão reiterado das big techs de privilegiar esse espectro político. Parte da academia aponta que os criadores dessas plataformas, no Vale do Silício, adotam uma visão de mundo ultraliberal, optando por algoritmos que favorecem grupos políticos alinhados à ideia de substituição do Estado pela tecnologia. •

Publicado na edição n° 1369 de CartaCapital, em 09 de julho de 2025.

Este texto aparece na edição impressa de CartaCapital sob o título ‘Passo tímido’

Categorized in:

Governo Lula,

Last Update: 03/07/2025