O CNJ decidiu que o ChatGPT pode ser utilizado por juízes
por Luís Carlos Barbosa
Duas obras literárias marcaram profundamente minha infância. Um deles foi Antígona, de Sófocles. O outro foi O Homem Bicentenário, de Isaac Asimov. Lembrei-me de ambos ao tomar conhecimento da burocrática repercussão da decisão no processo 0000416-89.2023.2.00.0000, julgado recentemente pelo CNJ.
Antígona e o robô NDR-113/Andrew têm uma coisa em comum. Ambos desafiam o mundo em que vivem para obter decisões em que a humanidade prevaleça. A personagem de Sófocles descumpre o cruel decreto de Creonte que condenou o irmão dela a ficar insepulto. Antígona está convencida de que todos os seres humanos devem ser sepultados. NDR-113/Andrew tenta inutilmente ver sua humanidade reconhecida pela Justiça. No final da obra de Isaac Asimov o robô obtém o que deseja. A personagem de Sófocles é condenada à morte, NDR-113/Andrew só é considerado humano no momento em que morre.
Na ficção de Isaac Asimov, um robô com qualidades genuinamente humanas é julgado por um Tribunal composto por seres humanos. A princípio eles recusam o pedido de NDR-113/Andrew porque ele é virtualmente imortal e a imortalidade o distinguiria de nossa espécie. O avanço do ChatGPT para dentro do Sistema de Justiça brasileiro garantido pela decisão proferida no processo 0000416-89.2023.2.00.0000 cria uma situação inversa. Doravante seres humanos serão julgados por robôs.
No Acórdão que proferiu, o CNJ exige que as decisões não sejam automatizadas e alerta que os juízes devem revisar tudo o que os robôs fazem. Essa advertência será inútil. Os profissionais do Direito sabem que os juízes não proferem pessoalmente todas as decisões judiciais.
Nos Tribunais, eles assinam decisões elaboradas por seus assistentes (geralmente juízes de primeira instância). Nas Varas de primeira instância, o Diretor do Cartório geralmente sugere as decisões interlocutórias e até mesmo algumas sentenças. Assim como banalizaram o ato de decidir no passado, os juízes transferirão para os robôs parte considerável de seu trabalho. Muitos se limitarão a assinar o que o “ChatGPT jurídico” vomitar sem se preocupar em verificar se o resultado fornecido contém ou não alguma alucinação.
Não gosto muito de ser pessimista. Mas me parece evidente que daqui a alguns anos as instâncias superiores serão obrigadas a revisar as alucinações de primeira instância. E essas alucinações poderão originar novas alucinações, porque os Desembargadores também utilizarão um “ChatGPT jurídico” que consultará bases de dados contaminadas por alucinações que foram previamente transformadas em decisões judiciais. O isolamento da base de dados pode evitar esse problema, mas isso não impedirá que resultados inadequados sejam fornecidos e eventualmente transformados em decisões judiciais.
NDR-113/Andrew só obtém uma decisão justa quando renuncia à sua imortalidade. A morte de Antígona acaba se voltando contra Creonte, porque em decorrência da condenação dela ele também perde tragicamente o filho e a esposa. O que nós perderemos em breve é o controle sobre a parcialidade/imparcialidade das decisões judiciais.
Os advogados, coitados, nunca terão condições de demonstrar que a decisão que prejudicou seus clientes foram contaminadas por algum tipo de viés. As Big Techs que fornecerem IAs geradoras de texto ao Poder Judiciário podem preservar seus segredos industriais invocando seu direito de patente. No passado era possível alegar e provar o impedimento/suspeição do juiz. Esse instituto cairá em desuso porque a imparcialidade dos robôs dificilmente poderá ser demonstrada. A submissão de uma atividade pública (a distribuição de justiça) a um instituto de direito privado (direito de patente) não me parece algo muito adequado ou desejável.
Engenheiros de TI e empresários gananciosos conseguiram invadir o último refúgio de humanidade. Doravante, a distribuição de justiça não será mais uma atividade humana criada por seres humanos para resolver problemas humanos. O que ela será ninguém ainda sabe.
A trágica morte de Antígona continua a reverberar no mundo moderno. Mas as questões levantadas por Isaac Asimov em O Homem Bicentenário estão se tornando ultrapassadas. Os juízes humanos julgaram que os juízes robô poderão julgar os processos dos seres humanos. A realidade ultrapassou a ficção, mas o resultado não será necessariamente uma tragédia segundo o CNJ.
“Eu avisei!” Essa será a única coisa que o autor do processo 0000416-89.2023.2.00.0000 poderá dizer quando os problemas causados pelo “ChatGPT jurídico” começarem a inundar os processos e a obrigar advogados e juízes a refletir sobre a aventura tecnológica em que o Judiciário mergulhou para dar lucro às Big Techs norte-americanas. Se a distribuição de justiça no Brasil for submetida, deformada e corrompida pelos robôs quem será responsabilizado? Ninguém. Em nosso país os agentes públicos quase sempre fazem o que bem entendem sem pagar a conta dos estragos que eles causam.
Num dia o CNJ autoriza os juízes brasileiros a utilizar ChatGPT. No outro dia a imprensa noticia que IAs podem ser hackeadas. A responsabilidade do Estado em caso as ações judiciais dos cidadãos (ou decisões proferidas nelas) sejam hackeados é uma possibilidade jurídica (art. 37, §6º, da Constituição brasileira), mas a questão é quem será o agente público que responderá regressivamente pelos danos causados ao próprio Estado pela adoção de uma tecnologia insegura.
Fábio de Oliveira Ribeiro, 22/11/1964, advogado desde 1990. Inimigo do fascismo e do fundamentalismo religioso. Defensor das causas perdidas. Estudioso incansável de tudo aquilo que nos transforma em seres realmente humanos.
O texto não representa necessariamente a opinião do Jornal GGN. Concorda ou tem ponto de vista diferente? Mande seu artigo para [email protected]. O artigo será publicado se atender aos critérios do Jornal GGN.
“Democracia é coisa frágil. Defendê-la requer um jornalismo corajoso e contundente. Junte-se a nós: www.catarse.me/jornalggn “