A professora Emérita do Departamento de Informática, Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) Clarisse Sieckenius de Souza publicou um artigo para alertar sobre a manipulação de dados em pesquisas acadêmicas a partir do avanço da inteligência artificial, que atualmente é capaz de influenciar escolhas de metodologias e análise de dados. 

Clarisse ressalta que a academia já cria regras para o uso da ferramenta em pesquisas, porém com foco em proteção de dados, autoria, manipulações intencionais, ou até fabricação de resultados.

A grande questão, no entanto, é o uso da IA em outros processos da produção científica, como a revisão bibliográfica, tradução de artigos, escolha de metodologias e análises de dados. 

Para a docente, a interferência da tecnologia na forma de produzir conhecimento pode facilitar a má conduta intencional, o que configura um dos desafios éticos que os cientistas têm a partir do novo cenário.

Entre os questionamentos da pesquisadora estão a confiabilidade e a transparência do conhecimento gerado por essas ferramentas.

“No meio acadêmico, essas questões geram desafios epistemológicos importantes. Afinal, nós, pesquisadores e professores, somos trabalhadores do conhecimento. E a nova IA nos colocou diante da possibilidade de trabalhar com conhecimento gerado artificialmente por software. Ao utilizarmos essas ferramentas, até que ponto podemos confiar em suas respostas sem compreendermos totalmente seus mecanismos internos?”, afirmou Clarisse, em artigo publicado no site The Conversation.

A docente resgata ainda o conceito de autoridade epistêmica, da filósofa Linda Zagzebski, em que o pesquisador reconhece a superioridade de alguém em determinado assunto. 

“No entanto, essa relação tem se tornado mais complexa. De um lado, a contestação da autoridade epistêmica de cientistas e especialistas vem crescendo, impulsionada pela disseminação de desinformação e pelo fortalecimento do negacionismo em diferentes áreas. Os filósofos Mirko Farina e Andrea Lavazza discutem, além deste, fenômenos como o crescimento do “opinionismo” — a crença de que qualquer opinião, independentemente de embasamento, deve ter o mesmo peso que um conhecimento cientificamente validado. Acredito que a profusão de influenciadores digitais também sugere uma corrosão em nossa capacidade de julgar o conhecimento humano”, acrescenta a pesquisadora. 

Ela ressalta ainda que a sociedade tem dado autoridade epistêmica a inteli]gências artificiais, porém sem questionar a origem e credibilidade das informações geradas por ela. 

“Ao longo de minha trajetória de mais de três décadas como pesquisadora e professora de Interação Humano-Computador no Departamento de Informática da PUC-Rio, busquei levar estudantes a uma observação crítica sobre a tecnologia. Ao trabalhar com teoria e prática na interação entre pessoas e tecnologias, sempre busquei deixar claro que tecnologias não têm geração espontânea: são frutos de crenças, intenções, interesses, condições e talentos de seres humanos, sejam engenheiros, programadores ou corporações. O mesmo se aplica à nova IA. É importante compreender que o conhecimento gerado por essas ferramentas não é neutro.”

Assim, Clarisse defende que a academia tenha uma relação crítica com a nova IA, a fim de que seja questionado sempre se a ferramenta tecnológica oferece autoridade epistêmica. 

“Essas reflexões não dizem respeito apenas às implicações éticas das grandes empresas de tecnologia, mas também à conduta moral e individual de quem é comprometido com a qualidade e a legitimidade na busca do conhecimento ou, como muitos preferem, da verdade. É incômodo, mas pode ser libertador”, afirma. 

Leia o artigo completo no site The Conversation

LEIA TAMBÉM:

Categorized in:

Governo Lula,

Last Update: 09/03/2025