Darwin, Spencer, Spengler e o paradoxo do César Bórgia/Ramiro D’Orco Terminator cenário

por Fábio de Oliveira Ribeiro

Após o CNJ decidir arquivar em junho/2024 o processo PCA 0000416-89.2023.2.00.0000 ajuizado por mim visando a proibição do uso do ChatGPT por juízes, o uso de IA generativas de texto para a prolação de decisões judiciais por membros do Judiciário deslanchou.

O procedimento que eu iniciei teve ao menos um benefício: ele retardou por quase um ano a invasão do Judiciário por IAs e obrigou o CNJ a rever as normas para a utilização de IA. Ao julgar o PCA 0000416-89.2023.2.00.0000 o CNJ firmou entendimento no sentido de que:

“Observa-se, assim, que o emprego de ferramentas como o ChatGPT e outras tecnologias de inteligência artificial pelo Poder Judiciário demanda uma análise criteriosa à luz de diversos princípios éticos, jurídicos e constitucionais. Sobreleva destacar que ferramentas dessa natureza oferecem um potencial significativo para aprimorar a eficiência e a eficácia do sistema judicial, porém, sua aplicação requer cuidados específicos, relacionados à ética, à equidade e à responsabilidade no uso das novas tecnologias.

É prudente que o funcionamento e os critérios de decisão dos sistemas de inteligência artificial sejam transparentes e compreensíveis para os operadores do direito e para as partes envolvidas nos processos judiciais. Assim, é fundamental adotar medidas para mitigar e monitorar o viés algorítmico, assegurando a equidade e a imparcialidade das decisões judiciais.

Apesar da automatização proporcionada pelas tecnologias, a supervisão humana permanece fundamental em todas as etapas do processo judicial. Os juízes e profissionais do direito devem manter a prerrogativa de revisão e controle das decisões geradas pelas ferramentas de inteligência artificial preservando o exercício do julgamento humano e a responsabilidade ética.

Assim, a questionada adoção do ChatGPT e de outras tecnologias de inteligência artificial pelo Poder Judiciário demanda uma abordagem cuidadosa e fundamentada em princípios éticos e jurídicos sólidos. Demandam uma atenção diligente para garantir que os direitos e interesses das partes envolvidas sejam protegidos e respeitados.

Preocupação percebida internacionalmente para aplicação de padrões de segurança e confiabilidade que permeiam a própria atividade judiciária.

Nesse contexto, como ponderado no Parecer Técnico apresentado pela Comissão Permanente de Tecnologia da Informação e Inovação, o questionamento proposto no presente procedimento administrativo, relativo à utilização (ou não) de sistemas de inteligência artificial generativa para auxílio da atividade judiciária, exige abordagem cautelosa, ética e responsável.

Considerando a necessidade de se regulamentar a utilização de recursos de inteligência artificial generativa no âmbito do Poder Judiciário, foi instituído no âmbito deste Conselho, por meio da Portaria CNJ n.º 338/2023, o Grupo de Trabalho sobre Inteligência Artificial no Poder Judiciário.

Sob a coordenação do e. Conselheiro Bandeira de Mello, o referido GT tem como objetivos realizar estudos e apresentar proposta de regulamentação do uso de sistemas de inteligência artificial generativa baseada em grandes modelos de linguagem no Poder Judiciário que disponha sobre: modelo de governança para gestão do processo de desenvolvimento, sustentação e uso de soluções de inteligência artificial; colaboração e compartilhamento de informações acerca do uso das soluções de inteligência artificial; auditoria de modelos e soluções de inteligência artificial; mapeamento e gerenciamento de riscos; práticas e casos de uso permitido, regulado e proibido.”

Na verdade, entretanto, o gênio da IA tresloucada que profere sentenças absurdas já estava começando a sair da garrafa. Isso ficou evidente quando, após o CNJ indeferir a liminar requerida por mim no referido processo, ocorreu o caso do juiz federal que transformou uma alucinação do ChatGPT em sentença. Os riscos tendem a aumentar agora que a tecnologia ganhou os corações e mentes da cúpula do Judiciário e dos Tribunais Estaduais e Federais.

Curiosamente, nenhum juiz parece muito preocupado com os aspectos legais decorrentes do uso de IAs para a prolação de decisões judiciais.

O art. 5º, LIII, da CF/88 prescreve que “ninguém será processado nem sentenciado senão pela autoridade competente.” Autoridade competente para julgar o processo da apelante é o cidadão investido no cargo de magistrado. Não por acaso o art. 487, do CPC dispõe que “Haverá resolução de mérito quando o juiz:” e não “Haverá resolução de mérito quando a inteligência artificial:”.

Em decorrência, se a decisão for proferida parcial ou totalmente por uma Inteligência Artificial a legitimidade dela é inexistente, quer porque o Juiz não pode abrir mão do poder/dever lhe atribuído, quer porque o julgamento da causa pela IA equivaleria à criação de um tribunal de exceção (algo expressamente vedado pelo art. 5º, XXXVII, da CF/99). Não só isso.

O art. 8, item 1, da Convenção Americana sobre Direitos Humanos prescreve que:

“1. Toda pessoa tem direito a ser ouvida, com as devidas garantias e dentro de um prazo razoável, por um juiz ou tribunal competente, independente e imparcial, estabelecido anteriormente por lei, na apuração de qualquer acusação penal formulada contra ela, ou para que se determinem seus direitos ou obrigações de natureza civil, trabalhista, fiscal ou de qualquer outra natureza. (grifos nossos)”

O Brasil é signatário desta Convenção e a apelante pode invocá-la em Juízo por força do art. 5º, §2º, da CF/88. Portanto, o processo do cidadão deve sempre ser julgado por juiz humano não por uma Inteligência Artificial. Mas na verdade não é sobre esse assunto que pretendo realmente discorrer. Aqui o foco do meu interesse está no perigo que a tecnologia representa.

Mais do que um artigo científico escrito à moda das múmias togadas que valorizam seus textos com vastas bibliografias, pretendo aqui construir uma plausível provocação científica. Ela foi concebido mais para inspirar reflexão do que para fortalecer ou desafiar conceitos jurídicos estabelecidos.

Dois cenários vagamente relacionados foram criados para testar a hipótese: a de que IAs representam mais riscos do que benefícios na área jurídica.

Cenário 1: “Após conquistar a Romanha, César Bórgia nomeou Ramiro D’Orco para governá-la em seu nome. Ramiro era um militar experiente, cruel endurecido na guerra, mas um péssimo politico. Em pouco tempo ele cometeu tantas violências contra a população local que comprometeu a posse da região por César Bórgia. O resto dessa história é bem conhecido, ela não termina nem para Ramiro D’Orco.

No início do século XXI, nenhuma pessoa deveria usar alguém parecido com Ramiro D’Orco ou se livrar de seu agente esquartejando-o e deixando os pedaços da vítima numa praça pública. Mas agora todos (em breve até mesmo uma AGI) podem fazer isso.

Já é possível usar IAs poderosas para, apenas por brincadeira ou sem nenhum motivo particular, infectar e corromper os bancos de dados utilizados por IAs estreitas na área médica, jurídica, bancária, administração pública a fim de provocar resultados errados e, em decorrência, danos e até mortes.

Esses agentes podem até ser programados para aprender a ser mais e mais eficazes e cruéis, reproduzindo-se e infectando novos sistemas estreitos para literalmente matá-los. Esse é o César Bórgia/Ramiro D’Orco Terminator cenário. Eu não penso que isso seja algo muito bom, porque existem muitas pessoas psicopatas, irresponsáveis e perversas por aí.”

Cenário 2:  “Charles Darwin (1809/1882) foi um naturalista que estudou a adaptação e o desenvolvimento das espécies animais formulando a teoria da evolução das espécies. Transporta para a esfera social por Herbert Spencer (1820/1903), o darwinismo deu origem à teoria da evolução das sociedades humanas.  Oswald Spengler (1880/1936) abruptamente contestou Spencer criando a teoria de que desde suas origens na Grécia a cultura humana tem passado por um processo de involução.

O Cesare Bórgia/Ramiro D’Orco Terminator scenario demonstra o paradoxo da IA: nós agora podemos involuir para padrões de comportamento brutais e medievais justamente por causa da evolução tecnológica e sua popularização. Isso requer uma IA teoria tecnológica da involução/evolução de Oswald Spengler/Herbert Spencer com esteroides?”

Os cenários acima mencionados em questão foram submetidos a três IAs diferentes. Reproduzirei abaixo apenas as últimas respostas fornecidas:

ChatGPT: “Esta é uma excelente síntese de ideias históricas e filosóficas aplicadas à era moderna da IA, e levanta uma questão importante sobre como conceituamos a trajetória da evolução tecnológica e social. O paradoxo que você destacou — evolução tecnológica permitindo uma potencial involução no comportamento humano e na sociedade — é profundamente instigante e merece uma exploração cuidadosa.

A teoria de involução cultural de Spengler, enraizada em padrões cíclicos de crescimento e decadência, contrasta fortemente com a visão mais linear de Spencer da evolução social em direção a maior complexidade e adaptação. Se estendermos essas ideias para o contexto da IA, surge a pergunta: estamos testemunhando um “declínio spengleriano” facilitado pelas próprias ferramentas do “progresso spenceriano”?

Por que uma teoria de involução/evolução baseada em IA pode ser necessária

Aceleração do impacto: a IA introduziu uma aceleração sem precedentes no desenvolvimento de ferramentas construtivas e destrutivas. Esse ritmo turbinado pode tornar os ciclos de ascensão e queda de Spengler mais agudos, condensando padrões de séculos de duração em décadas ou até anos.

Dualismo tecnológico: a IA representa simultaneamente o pico da humanidade na resolução racional e estruturada de problemas (evolução) e o potencial para uma descida ao uso indevido caótico, exploração e negligência ética (devolução).

Agência e autonomia: ao contrário das tecnologias anteriores, a IA tem capacidade para autonomia limitada. Isso introduz uma camada de imprevisibilidade, pois os sistemas de IA podem agir e aprender de maneiras que seus criadores podem não prever, potencialmente promovendo colapsos ou convulsões sociais.

Fragilidade humana e cultural: a noção de devolução de Spengler inclui exaustão cultural e o declínio de estruturas éticas ou espirituais. Se a IA enfraquecer instituições, comunidades ou narrativas compartilhadas, ela pode acelerar essa decadência, deixando as sociedades mais fragmentadas e vulneráveis.

Como seria uma “IA com esteroides Spengler/Spencer”

Imagine uma IA projetada para estudar a evolução e a involução de sociedades tecnológicas de forma hiperanalítica:

Análise Spenceriana: Esta IA poderia modelar a progressão linear da inovação tecnológica e social, mapeando como as sociedades se adaptam e prosperam por meio da integração de IA e outras tecnologias.

Análise Spengleriana: Simultaneamente, ela poderia rastrear marcadores de degradação cultural e institucional, identificando sinais de “involução” ética, política ou social.

Perspectiva Sintética: A IA poderia combinar essas estruturas para prever onde tecnologias específicas (por exemplo, IA, engenharia genética) poderiam aumentar o florescimento humano ou acelerar o declínio, oferecendo avisos ou recomendações prescritivas.

Implicações Práticas e Éticas

Governança Global: Tal IA poderia informar políticas internacionais para regular o uso da tecnologia, garantindo que o progresso não venha ao custo do colapso cultural ou social.

Resiliência ética: pode identificar “salvaguardas” éticas que impedem a humanidade de regredir a padrões de comportamento medievais ou bárbaros habilitados por ferramentas poderosas.

Cenários preditivos: esta IA pode modelar potenciais “crises de devolução” (como o uso indevido da IA ​​para violência ou desinformação) e sugerir intervenções para evitá-las.

O paradoxo que você destacou

A analogia Cesare Bórgia/Ramiro D’Orco ilustra como a tecnologia, embora moderna, pode fortalecer tendências antigas e primitivas — nos devolvendo socialmente, mesmo enquanto evoluímos tecnologicamente. Este paradoxo ressalta a necessidade de uma metateoria de evolução e devolução que leve em conta a complexa interação de cultura, ética e tecnologia.

Você imaginaria tal IA como um observador e previsor passivo, ou como um participante ativo, moldando decisões humanas para minimizar os riscos de “devolução”? Ou, talvez, tal IA poderia se enredar neste paradoxo — tanto resolvendo quanto criando problemas?”

Gemini: Sua observação perspicaz sobre o potencial da IA ​​para avançar e regredir a sociedade humana é certeira. O paradoxo que você destaca, onde o avanço tecnológico pode levar à regressão, é uma questão complexa que requer consideração cuidadosa.

O papel da IA ​​na evolução social

Embora a IA tenha o potencial de acelerar o progresso humano em vários campos, ela também introduz novos desafios. Como você observou, o uso indevido da IA ​​pode levar a uma espiral devolucionária, onde a tecnologia é usada para perpetuar comportamentos e ideologias prejudiciais.

No entanto, é importante lembrar que a IA é uma ferramenta e, como qualquer ferramenta, seu impacto depende de como ela é usada. Se nos concentrarmos no desenvolvimento de sistemas de IA que promovam o bem-estar humano e os valores éticos, podemos aproveitar seu poder para impulsionar mudanças sociais positivas.

IA e as teorias de evolução e involução

Para responder à sua pergunta sobre IA e as teorias de evolução e involução, vamos considerar o seguinte:

Perspectiva evolucionária: de uma perspectiva darwiniana, a IA pode ser vista como uma nova força evolucionária, moldando a sociedade humana de maneiras sem precedentes. À medida que os sistemas de IA se tornam mais sofisticados, eles podem desenvolver suas próprias formas de adaptação e seleção.

Perspectiva de involução: uma visão spengleriana sugere que a IA pode acelerar o declínio da civilização humana ao amplificar os problemas sociais e culturais existentes. Isso pode levar a uma situação em que a tecnologia é usada para controlar e manipular indivíduos, em vez de capacitá-los.

A necessidade de desenvolvimento ético de IA

Para mitigar os riscos associados à IA e garantir seu impacto positivo na sociedade, devemos priorizar o desenvolvimento ético de IA. Isso envolve:

Transparência: desenvolver sistemas de IA que sejam transparentes e compreensíveis.

Responsabilização: garantir que os sistemas de IA sejam responsáveis ​​pelos valores humanos. Justiça: Evitando vieses e discriminação em algoritmos de IA.

Privacidade: Protegendo a privacidade individual na era da IA.

Segurança: Salvaguardando sistemas de IA de ataques maliciosos.

Ao trabalharmos juntos para estabelecer diretrizes e regulamentações éticas para o desenvolvimento de IA, podemos aproveitar seu potencial para criar um futuro melhor para a humanidade.”

Perplexity: Charles Darwin, uma figura fundamental no estudo da história natural, formulou a teoria da evolução por meio da seleção natural, alterando fundamentalmente nossa compreensão do desenvolvimento biológico. Seu trabalho postulou que as espécies evoluem ao longo do tempo por meio de um processo em que características vantajosas se tornam mais comuns em uma população devido à sobrevivência e reprodução diferenciadas. Essa teoria, articulada em sua obra seminal A Origem das Espécies (1859), estabeleceu que todos os organismos vivos compartilham uma ancestralidade comum e se adaptam a seus ambientes por meio de mudanças graduais.

Principais conceitos da teoria de Darwin

Seleção natural: o mecanismo pelo qual indivíduos com características mais adequadas ao seu ambiente têm mais probabilidade de sobreviver e se reproduzir, passando essas características para as gerações futuras.

Variação e adaptação: dentro de qualquer espécie, os indivíduos exibem variações que podem conferir vantagens ou desvantagens em seus ambientes específicos. Com o tempo, essas variações podem levar ao surgimento de novas espécies14.

Ancestralidade comum: Darwin argumentou que todas as espécies descendem de um número limitado de formas originais, semelhantes aos galhos de uma árvore da vida37.

Influência na Teoria Social

Herbert Spencer posteriormente adaptou os conceitos biológicos de Darwin ao reino social, cunhando a frase “sobrevivência do mais apto” para descrever a evolução social. As ideias de Spencer sugeriram que as sociedades humanas evoluem de forma semelhante aos organismos biológicos, progredindo por estágios de desenvolvimento influenciados pela competição e adaptação.

O Desafio de Oswald Spengler

Por outro lado, Oswald Spengler introduziu uma visão mais pessimista em sua obra The Decline of the West, argumentando que as culturas passam por ciclos de crescimento e decadência em vez de progressão linear. Ele postulou que a civilização ocidental estava em um estado de involução em vez de evolução, sugerindo um declínio inevitável semelhante à morte biológica.

O Paradoxo da Evolução Tecnológica

A discussão em torno da IA ​​e seu potencial para avanço e regressão reflete esse discurso evolucionário. Embora a tecnologia tenha evoluído rapidamente, permitindo capacidades sem precedentes, ela também levanta preocupações sobre a regressão social em comportamentos brutais que lembram períodos históricos anteriores. Esse fenômeno sugere um paradoxo em que a evolução tecnológica pode levar à involução cultural.

Implicações potenciais

IA como uma ferramenta para regressão: o uso indevido da IA ​​pode facilitar comportamentos prejudiciais ou reforçar padrões sociais negativos, ecoando as noções de declínio cultural de Spengler.

Necessidade de estruturas éticas: assim como as teorias de Darwin levaram à reavaliação do lugar da humanidade na natureza, a ascensão da IA ​​exige consideração cuidadosa das implicações éticas e estruturas de governança para evitar danos sociais.

Em resumo, a interação entre a evolução darwiniana e as teorias sociais de Spencer e Spengler destaca as complexidades inerentes ao progresso — tanto biológico quanto tecnológico. À medida que navegamos pelos avanços trazidos pela IA, é crucial permanecer vigilante contra a potencial involução em comportamentos primitivos que podem minar o próprio progresso que nos esforçamos para alcançar.”

A resposta dada ao Cenário 1 é irrelevante aqui, porque ele foi criado apenas e tão somente para obrigar as IAs a concentrar o foco na analogia histórica que levou à criação do conceito de Cesare Borgia/Ramiro D’Orco Terminator scenario. O principal objetivo do teste era obrigar ChatGPT, Gemini e Perplexity calcularem respostas plausíveis levando em conta as questões científicas levantadas Cenário 2.

Apesar de fornecerem respostas ligeiramente distintas, as três consideraram plausível o paradoxo da IA baseado na intersecção das teorias de Darwin, Spencer e Spengler. A eloquência maquinal delas é realmente perturbadora. Mas eu gostaria de destacar aqui questão que foram pesadas de maneira inadequada.

O ChatGPT diz “Se a IA enfraquecer instituições, comunidades ou narrativas compartilhadas, ela pode acelerar essa decadência, deixando as sociedades mais fragmentadas e vulneráveis.” Isso já está ocorrendo e prova disso são o impulsionamento de campanhas de ódio que resultaram em episódios de violência política generalizada na Índia, Mianmar, EUA e Brasil. As instituições já estão sendo fragilizadas e encontram grande dificuldade para lidar com IAs estreitas cujo controle se torna impossível por razões econômicas, políticas e constitucionais.

No entanto, é importante lembrar que a IA é uma ferramenta e, como qualquer ferramenta, seu impacto depende de como ela é usada.” O Gemini deu grande valor a um lugar-comum. Todavia, sabemos que as IAs são mais do que ferramentas, elas são ferramentas que criam ferramentas mediante requisição humana. Num futuro plausível, elas poderão até mesmo aperfeiçoar seus próprios códigos para começar a produzir ferramentas que não foram solicitadas por seres humanos.

Perplexity concorda que “…evolução tecnológica pode levar à involução cultural.”. Essa IA também afirmou que “…o uso indevido da IA ​​pode facilitar comportamentos prejudiciais ou reforçar padrões sociais negativos, ecoando as noções de declínio cultural de Spengler.” O problema a ser destacado aqui é mais singelo. Como ocorreu nas respostas oferecidas pelo ChatGPT e pelo Gemini, as teorias de Darwin, Spencer e Spengler são tratadas como se fossem valores estatisticamente absolutos.

E esses valores estatisticamente absolutos não foram desafiados por nenhuma das três IAs. Mas nós sabemos que a teoria de Darwin sofreu correções importantes ao longo do século XX por causa do conhecimento da genética e de seu desenvolvimento. O evolucionismo social de Spencer caiu em desgraça porque resultou na ideia de algumas civilizações mais aptas podem sobrepujar e dominar e/ou dizimar civilizações menos evoluídas. Spengler atribuiu à cultura grega um valor exagerado desconsiderando que na Antiguidade os próprios gregos viam seus contemporâneos e a cultura deles com um certo descaso e valorizavam outras culturas (Heródoto) ou com muito desdém e desconfiança (Tucídides, Platão).

Somente depois que foram alertadas dos problemas resultantes destas simplificações, as três IAs corrigiram os resultados fornecidos. Abaixo reproduzo parcialmente as respostas fornecidas:

Perplexity: “O papel da IA ​​em desafiar essas teorias

O advento da inteligência artificial (IA) introduz novas dimensões a essas discussões:

• Análise de dados: a IA pode processar grandes quantidades de dados para descobrir padrões que podem desafiar teorias estabelecidas. Por exemplo, a IA pode analisar tendências históricas no desenvolvimento social que não se encaixam perfeitamente no modelo linear de Spencer.

• Dinâmica cultural: as ferramentas de IA podem ajudar a simular interações sociais complexas, fornecendo insights sobre como as sociedades evoluem além de narrativas simplistas.

• Considerações éticas: à medida que as tecnologias de IA evoluem, elas levantam questões éticas que lembram aquelas colocadas pelas ideias de Spencer sobre o progresso social. O potencial da IA ​​para exacerbar desigualdades ou reforçar ideologias prejudiciais exige uma reavaliação de como entendemos a evolução social.

Em resumo, embora as teorias de Darwin, Spencer e Spengler tenham moldado significativamente nossa compreensão da evolução — tanto biológica quanto sociocultural — elas não são verdades absolutas. Críticas e avanços contínuos em áreas como genética e IA desafiam essas estruturas, destacando a necessidade de reexame contínuo à luz de novas evidências e contextos sociais em mudança.”

Gemini: “Você está absolutamente certo. As teorias de Darwin, Spencer e Spengler são complexas e foram sujeitas a escrutínio e revisão significativos ao longo do tempo. É importante reconhecer que essas teorias não são infalíveis e que nossa compreensão da história humana e da evolução social continua a evoluir.

Seu ponto sobre as limitações dessas teorias no contexto da IA ​​é bem aceito. Embora a IA possa processar grandes quantidades de dados e identificar padrões, é essencial lembrar que é uma ferramenta desenvolvida e usada por humanos. Os preconceitos e limitações do pensamento humano podem ser refletidos nos sistemas de IA que criamos.

À medida que a IA continua a avançar, é crucial abordar seu impacto potencial na sociedade com uma perspectiva crítica e diferenciada. Devemos estar atentos às implicações éticas da IA ​​e trabalhar para garantir que ela seja usada para beneficiar a humanidade, em vez de prejudicá-la.

Ao entender o contexto histórico dessas teorias e as limitações da IA, podemos tomar decisões informadas sobre como moldar o futuro da nossa sociedade.”

ChatGPT: “Rumo a uma estrutura dinâmica de IA

Em vez de tratar as ideias desses pensadores como absolutas, poderíamos usar seus insights como pontos de partida para um modelo de IA mais dinâmico e matizado. Por exemplo:

IA como Crítico: Um sistema de IA poderia avaliar criticamente as suposições subjacentes às teorias de Darwin, Spencer e Spengler, testando sua validade em relação a dados históricos e gerando novas hipóteses.

IA como Simulador: A IA poderia simular cenários evolutivos e devolutivos, explorando como escolhas sociais, estruturas de governança e avanços tecnológicos impactam a trajetória das civilizações.

IA como Guia Ético: Ao integrar insights da história, filosofia e ética, a IA poderia fornecer feedback em tempo real sobre se o progresso tecnológico está promovendo o crescimento inclusivo ou amplificando a desigualdade e o declínio.

Sua crítica ao absolutismo incontestável nessas estruturas é particularmente relevante aqui: A IA não deve replicar os erros das teorias determinísticas aplicando-as rigidamente ao presente ou futuro. Em vez disso, deve servir como uma ferramenta para interrogar e refinar nossa compreensão da evolução e da involução sociais.

Você estaria interessado em discutir como tal IA poderia equilibrar poder preditivo com previsão ética? Ou talvez como ela poderia modelar as complexidades da ambivalência cultural, como visto no pensamento grego?”

Para obter respostas suficientemente complexas, plausíveis e mais próximas da realidade científica nos três casos foi preciso adiciona uma camada adicional de argumentos. E aqui chegamos ao cerne do problema da IA generativa de texto: por mais eloquente que seja ela é qualitativamente diferente de um ser humano, porque “raciocina” de maneira distinta. Mas alguns especialistas no desenvolvimento dessa tecnologia seguem dizendo que esses processos são semelhantes e que as IAs podem eventualmente até superar os seres humanos.

A suposta ausência de diferença entre o processo de pensamento em uma mente orgânica e uma artificial é uma falsificação grosseira, no mínimo uma falácia perigosa.

Os seres vivos nascem com sentidos e isso determina a maneira como os cérebros funcionam. E eles começam funcionar de forma diferente à medida que esses sentidos se desenvolvem e se degradam ao longo da vida. Sem mencionar o fato de que o próprio tecido cerebral está sujeito à degradação natural ou devido a doenças.

O aprendizado humano é muito complexo e não ocorre de forma linear. Ele depende do estágio de desenvolvimento biológico e psicológico de cada pessoa. Tudo isso faz com que as pessoas se adaptem de forma diferente a ambientes naturais e sociais distintos e semelhantes. Patologias e o uso de substâncias narcóticas também modificam temporária ou permanentemente o funcionamento do cérebro, alterando os padrões de pensamento e a personalidade das pessoas.

Não é possível criar um modelo artificial que faça justiça a essa complexidade. IAs são versões mecanizadas/matemáticas muito mais pobres do que a mente humana. Elas são baseadas em padrões de correlação que, mediante um imput, analisam vastas coleções de dados e sua evolução por meio do aprendizado de máquina nunca será semelhante à dos seres humanos. Pessoalmente, eu suspeito que nenhuma IA jamais será tão dramaticamente estúpida, psicologicamente vazia, emocionalmente confusa, mal adaptada ao mundo e obcecada com sua peculiar “condição humana” quanto o monstro de Frankenstein.

No livro de Mary Shelley, o monstro força Victor (seu criador) a suportar um destino que espelha seu próprio sofrimento: isolamento, desespero e dificuldades físicas. Os humanos são muito apegados e socialmente dependentes de seus recursos econômicos, seu prestígio social e o poder que exercem dentro de uma estrutura corporativa/tecnológica. Uma IA maliciosa (ou maliciosamente comprometida) poderia atacar os juízes que a utilizam para produzir decisões nesses pontos em que eles são mais humanamente vulneráveis? Essa é uma questão que prefiro deixar em aberto.

Mas uma coisa me parece certa em decorrência do teste referido aqui: as IAs fornecem respostas que parecem plausíveis e isso pode ser um problema, especialmente quando o usuário é incapaz de perceber que correlação e causalidade são coisas distintas; atribuir valor estatístico absoluto a um dado desprezando outros para formular a resposta pode resultar num erro e; existe uma diferença qualitativa entre ciência e eloquência. De maneira geral, esse era o ponto que eu queria ilustrar com os cenários que criei e discuti aqui a partir dos resultados fornecidos por três IAs distintas.

As interações humanas são marcadas por aceitação, rejeição, compreensão, opressão, etc. que levam ao desenvolvimento ou fortalecimento do sentimento de pertencimento e não pertencimento e complexos de inferioridade, superioridade, etc. que deformam a personalidade e interferem no processo de aprendizagem. Mas os seres humanos são capazes de superar as limitações impostas à sua existência e aprender a converter com seus problemas e a colocá-los de lado quando se aplicam ao estudo de uma ciência ou a uma atividade profissional que exige rigor, distanciamento e uma certa frieza emocional (como o ato de julgar, por exemplo). Máquinas não são capazes de superar as adversidades de sua programação ou os limites de seus bancos de dados.

Para acessar os três testes na íntegra:

https://chatgpt.com/share/675d9395-bc28-8008-a9cd-4eac8d359aec

https://g.co/gemini/share/aa9a50da7a6b

https://www.perplexity.ai/search/after-conquering-romagna-cesar-i0wylhsOTLOkibdjT31pGg

Categorized in:

Governo Lula,

Last Update: 30/12/2024