Abram alas para o Direito algorítmico kafkiano francês
por Fábio de Oliveira Ribeiro
Reproduzo abaixo algo extremamente preocupante que foi compartilhado por um colega francês:
“Uma decisão administrativa que o preocupa foi premiada por um algoritmo? Quais são seus direitos à transparência na França?
A utilização crescente de algoritmos pela administração para tomar decisões individuais (afetações, assessores, controles…) resolve questões essenciais de transparência e responsabilidade. O quadro jurídico francês, principalmente através do Código de Relações entre o Público e a Administração (CRPA), oferece garantias importantes.
O que você deve lembrar:
Menção obrigatória (Art. L311-3-1 CRPA): Se uma decisão individual repousar sobre um algoritmo, ela deve ser explicitamente indicada na decisão mesma. Esta menção deve precisar a finalidade do algo e comentar exercer seu direito à informação (Art. R311-3-1-1 CRPA). 🤖
Direito à informação sobre demanda (Art. L311-3-1 e R311-3-1-2 CRPA): O cidadão tem o direito de exigir à administração que o comunicado seja inteligível acerca:
– do grau e o modo de contribuição do algoritmo para a decisão.
– quais foram os dados processados referentes a você e suas fontes.
– dos parâmetros de traço aplicados à sua situação (e sua ponderação).
– das operações efetuadas pelo algoritmo (sujeito a segredos protegidos por lei)
Publicação em linha (Art. L312-1-3 CRPA): As administrações (salvo exceções) devem publicar em linha as regras que definem os principais traços algorítmicos que são utilizados para tomar decisões individuais.
Ponto Crucial (Jurisprudência): Estas obrigações de transparência específicas não são aplicáveis se a decisão for DIRETAMENTE tomada pelo algoritmo. Se um agente público efetuar um controle humano e revisar a decisão final (mesmo que isso ocorra por causa de um algoritmo de serviço de ajuda ou alerta), essas regras não serão aplicadas da mesma maneira. Além disso, é necessário que você obtenha os detalhes do algoritmo.
Na França é intenso o debate em torno do uso de algoritmos pelas administrações públicas, como por exemplo o da CAF*. O algoritmo do CNAF** atribuirá uma “pontuação de risco” mais alta a pessoas com baixa renda, desempregadas, que recebem RSA ou AAH*** ou que moram em bairros prioritários. É justamente essa ligação entre precariedade e risco algorítmico que cria essa “dupla penalidade”.
Ultimamente, ela [a administração pública] tem se mostrado bastante “relutante” em revelar totalmente seus algoritmos.”
Com informações de Emile-luciano Lombardo – Legal & AI advisor at Query Juriste. Conteúdo original em francês no seguinte endereço.
Na prática, portanto, a administração automatizada da França está decidindo que o cidadão francês tem e não tem direito à transparência algorítmica. Isso é algo digno de um conto de Kafka.
Uma das características marcantes do neoliberalismo jurídico é o esvaziamento do conteúdo humanitário programático das constituições aprovadas no pós-guerra. Além de revogar Leis que garantiam direitos sociais, trabalhistas e previdenciários, nos EUA, Europa e América Latina os governantes e até os juízes começaram a dar uma interpretação “pró-mercado” de decisões e normas legais aprovadas para proteger contingentes populacionais vulneráveis. Vários exemplos desse fenômeno poderiam ser citados aqui, mas citarei apenas três deles.
A Alemanha enfraqueceu bastante a legislação internacional que reprime o genocídio ao se recusar a cumprir a decisão do Tribunal Penal Internacional que determinou a prisão de Netanyahu. Nos EUA a Suprema Corte permitiu a Donald Trump expulsar pessoas não binárias das Forças Armadas, esvaziando o princípio da igualdade de todos perante a Lei independentemente de sexo. No Brasil, um exemplo típico da anomia jurídica pós-moderna tem sido dada sempre que o STF profere decisões que impedem trabalhadores de questionarem na Justiça a validade de prestação de serviços fraudulentos celebrados com empresas como a UBER. Gilmar Mendes, Luís Barroso e seus colegas estão jogando a CLT na lata do lixo e mutilando acintosamente a competência constitucional da Justiça do Trabalho e a garantia de ação dos trabalhadores.
O Direito não pode ser esvaziado sem que isso acelere o processo de degradação política e institucional. Isso se torna ainda mais preocupante quando IAs podem escolher cumprir ou não cumprir normas legais que garantem transparência algorítmica aos cidadãos. É nesse sentido que o caso francês citado aqui se torna paradigmático. À medida que os Estados passarem mais e mais a utilizar IAs, inclusive nos seus sistemas de justiça (a Resolução nº 615, de 11/03/2025, também garante transparência algorítmica no seu art. 1º, §3º), o processo de anomia se tornará maior e mais preocupante se os robôs puderem decidir se tem ou não a prerrogativa de deixar revelar porque uma decisão automatizada foi tomada e não outra.
No caso francês comentado, é notável a má vontade da administração pública. Como deixou bem claro Emile-luciano Lombardo as autoridades administrativas parecem inclinadas a validar decisões automatizadas que negam aos cidadãos a garantia de saber como e porque o algoritmo tomou uma determinada decisão. Portanto, a anomia algoritmizada está sendo humanamente reforçada com evidente prejuízo para os cidadãos.
O perigo do retorno do obscurantismo jurídico medieval, me parece evidente. Na Idade Média as regras que se aplicavam às pessoas comuns não eram aplicadas aos nobres e clérigos. Injustiças eram comuns e o uso da força bruta uma realidade. Apenas nos casos envolvendo nobres igualmente poderosos, uma decisão da justiça real podia ser realmente esperada. E mesmo nesses casos a disputa poderia ser eventualmente resolvida por combate singular até a morte. Os clérigos não estavam sujeitos à justiça secular. As decisões que eles proferiam em casos de heresia envolvendo pessoas comuns poderiam resultar em tragédias para os condenados, como ocorreu no caso de Joana D’Arc.
Voltemos ao Law Terminator Cenário que emerge do caso mencionado pelo colega francês. A mim parece evidente que o Estado não decidirá mais da mesma maneira os casos das pessoas comuns e os das pessoas ricas e poderosas, porque estas poderão sempre exigir que seus conflitos sejam julgados por humanos e não por robôs. Isso para não mencionar o fato de que a automatização da justiça administrativa e judicial tende a ocorrer com maior frequência nos casos economicamente menos importantes.
O surgimento de duas classes de cidadãos julgadas de maneira distinta por regras distintas e juízes distintos é extremamente perigoso. A percepção da diferença tende a aumentar tanto a arrogância dos ricos e poderosos quanto a frustração, ódio e ressentimento daqueles que ficarão à mercê dos robôs que podem julgar que não tem obrigação nenhuma de esclarecer como e porque uma decisão foi tomada.
A tecnologia a serviço da justiça tende a produzir não apenas injustiça, mas instabilidade política. Esse é um ponto que deveria merecer mais atenção das autoridades nesse momento. Isso é tão ou mais preocupante do que as alucinações eventualmente vomitadas por IAs. Infelizmente isso não está ocorrendo nem na França, nem no Brasil.
Notas:
* CAF na França é um organismo crucial responsável pela administração e distribuição de benefícios sociais e familiares, desempenhando um papel vital no apoio financeiro às famílias para promover seu bem-estar e estabilidade econômica.
*** O RSA (Rendimento Solidário Ativo) é um benefício social na França destinado a pessoas desempregadas ou com baixos rendimentos, garantindo um rendimento mínimo e apoiando a integração profissional. O programa visa combater a pobreza e incentivar o retorno ao trabalho, substituindo o antigo RMI (Rendimento Mínimo de Inserção). O AAH (Abono de Família) é um subsídio que complementa os recursos de famílias com crianças, ajudando a cobrir os custos de alimentação, educação e moradia. Ambos os programas são essenciais para a proteção social e a promoção da inclusão social na França.
Fábio de Oliveira Ribeiro, 22/11/1964, advogado desde 1990. Inimigo do fascismo e do fundamentalismo religioso. Defensor das causas perdidas. Estudioso incansável de tudo aquilo que nos transforma em seres realmente humanos.
O texto não representa necessariamente a opinião do Jornal GGN. Concorda ou tem ponto de vista diferente? Mande seu artigo para [email protected]. O artigo será publicado se atender aos critérios do Jornal GGN.
“Democracia é coisa frágil. Defendê-la requer um jornalismo corajoso e contundente. Junte-se a nós: www.catarse.me/jornalggn “