Se você for uma pessoa negra, seu rosto será mais vigiado no Carnaval do que os rostos brancos. O reconhecimento facial não protege. Ele criminaliza. A Prefeitura de São Paulo insiste em usar o reconhecimento facial no Carnaval, ignora as recomendações da Defensoria Pública e os riscos de perfilamento racial. Esse não é um debate sobre segurança, mas sobre controle seletivo e repressão disfarçada de modernização.

O reconhecimento facial já provou que erra mais com pessoas negras, mulheres e transgêneros. Isso não é uma falha técnica. É um reflexo de um sistema que reforça desigualdade em vez de corrigi-las. Em 2019, um estudo de uma rede de observatórios de segurança analisou a violência e o uso dessa tecnologia em estados brasileiros mostrou que, na Bahia, durante o carnaval, 96% dos alertas gerados foram inúteis e 90,5% das pessoas presas eram negras. Quanto ao perfil dos presos por reconhecimento facial, 87,9% dos suspeitos foram homens e 12,1% mulheres; e 9,5% eram brancas. O resultado? Prisões indevidas, abordagens violentas e a ampliação do estado de vigilância sobre corpos negros. Quem pode circular livremente pelas ruas sem medo de ser criminalizado por um algoritmo?

O Carnaval é um espaço de expressão e ocupação das ruas. É um direito. Mas com câmeras escaneando multidões, essa liberdade fica ameaçada. A vigilância excessiva não protege, ela seleciona alvos. E sabemos quem são esses alvos. Sem transparência e controle social, essa tecnologia apenas reforça intensifica desigualdades e restringe direitos.

A Defensoria Pública alertou que esse tipo de monitoramento fere diretrizes internacionais de direitos humanos. A Organização das Nações Unidas (ONU) já afirmou que ferramentas digitais devem proteger liberdades, não restringi-las. Mas, na prática, essa tecnologia serve para criminalizar corpos negros enquanto o Estado recusa-se a monitorar agentes de segurança que matam e violam direitos.

O perigo do reconhecimento facial não está apenas no presente, mas na sua base histórica. É urgente lembrar que teorias eugenistas, ao vincularem a biologia ao comportamento social, foram pilares de regimes totalitários que defendiam a limpeza e a purificação étnica de populações. Como bem afirmou Zigmunt Bauman, o nazismo não foi um ponto fora da curva, mas uma expressão do horror da modernidade diante da indeterminação. Essas teorias ainda deixam sequelas no pensamento contemporâneo e a biologia ou o reconhecimento de um fenótipo continuam sendo usados como base para políticas racistas.

O argumento de que essa tecnologia reduz a criminalidade ignora uma questão central: contra quem essa segurança é aplicada? O Estado resiste em colocar câmeras nos uniformes de policiais, mas não hesita em espalhar dispositivos que aumentam o risco de criminalização da população negra e periférica.

O reconhecimento facial não é neutro. Se não questionarmos seus impactos agora, vamos consolidar um modelo de segurança que protege alguns e persegue outros. Essa tecnologia não é inofensiva. Ela é um projeto político.

Precisamos de transparência e responsabilidade no uso da tecnologia. A verdadeira segurança pública protege todos, e não apenas alguns. O Carnaval não pode se tornar um experimento de vigilância que fortalece o racismo estrutural. A pergunta certa não é se essa tecnologia funciona, mas a quem ela realmente serve. Se serve para perseguir e silenciar, precisa ser combatida antes que se torne a nova normalidade.

Categorized in:

Governo Lula,

Last Update: 01/03/2025