A Inteligência Artificial já está consolidada na rotina de profissionais e no universo acadêmico. Se antes em fase de testes, hoje, as ferramentas são utilizadas por pesquisadores de forma estabelecida. Ao mesmo tempo, no Brasil, há um vazio de regulamentações e diretrizes que imponham limites e orientações dos profissionais para o seu uso adequado.
Diante do avanço de novas ferramentas e os consequentes riscos de proteção de dados, a forma com que as informações são utilizadas por estas tecnologias e como o Brasil se insere nessa nova dinâmica do mercado de informações -incluindo a criação de ferramentas nacionais como a SoberanIA e Amazonia IA-, três pesquisadores brasileiros decidiram criar um guia sobre o uso responsável e ético das IAs, para ser implementado em Universidades e instituições científicas.
Intitulado “Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores”, o documento traz uma série de análises sobre as ferramentas, desmistifica o “entusiasmo exagerado” ou “temores infundados” das tecnologias, e apresenta os riscos reais e cuidados com que pesquisadores e profissionais devem ter no uso das ferramentas de IA.
Segundo o professor de Ciência Política da UFPR e um dos criadores do guia, Rafael Cardoso Sampaio, o objetivo do manual é preencher a lacuna hoje existente no país de ausência de quaisquer regramentos de órgãos brasileiros sobre o uso da Inteligência Artificial no ensino e na pesquisa.
“Decidimos elaborar o material por uma ausência de regramentos, diretrizes ou mesmo cartilhas por parte dos principais órgãos públicos de regulação e fomento ao ensino e pesquisa no Brasil, como MEC, CAPES, MCTI e CNPq”, explicou o professor, ao GGN.
A velocidade com que as ferramentas avançaram e começaram a transformar as práticas de pesquisa no país não foi a mesma por parte de organizações e institutos de passar as devidas orientações e diretrizes, deixando um cenário no Brasil no qual, atualmente, os pesquisadores estão “perdidos”, segundo o professor.
“Esta lacuna deixa os professores e estudantes perdidos, sem saber se podem usar as ferramentas de IA generativa e em que condições.”
Outro fator considerado pelos autores do guia, que conta com a colaboração também dos pesquisadores Marcelo Sabbatini (UFPE) e Ricardo Limongi (UFG), trabalha diretamente com questões geopolíticas, mais especificamente, nos interesses de proteção de pesquisa e ciência no Brasil.
“Igualmente, não há uma política para a proteção de dados inéditos e descobertas científicas de pesquisas de ponta, que podem estar sendo entregues gratuitamente a grandes empresas nos EUA e China”, afirmou Rafael Sampaio.
A publicação aponta que as ferramentas mais comuns e populares atualmente, como o ChatGPT, Claude, Copilot, Gemini são norte-americanas, “pertencendo às Big Techs, grandes empresas de tecnologia com sede no Vale do Silício nos Estados Unidos”.
No universo da pesquisa, “isso significa que a maior parte das ferramentas de IA tenderão a privilegiar visões de mundo estadunidenses, ou pelo menos dos países hegemônicos ocidentais”. Ou seja, trarão resultados que privilegiam estes países hegemônicos ocidentais.
“A segunda questão é que as Big Techs, para oferecer esse serviço ‘gratuitamente’ ou a preços acessíveis, aproveitam as interações com humanos para treinamento de seus modelos. (…) Essa preocupação é notoriamente mais complicada quando estamos falando de pesquisas de ponta, com dados inéditos, alimentando a lógica de um “colonialismo de dados” (Cassino, Souza, Silveira, 2021; Oliveira, Neves, 2023). Além disso, há uma preocupação com pesquisas que contêm dados sensíveis”, expõe a publicação.
O mesmo ocorre, segundo os pesquisadores, com grupos subrepresentados, excluídos e marginalizados, incluindo mulheres, negros, povos indígenas, LGBTQIAPN+, entre outros, que não possuem representação adequada na Internet, uma vez que os bancos de dados utilizados são os modelos da Internet.
“Ao contrário do hype geralmente propagado de serem uma ‘tecnologia disruptiva’, na prática, as IAs Generativas tendem a agir para manter o status quo, reforçar dinâmicas e estruturas de poder existentes e agravar o problema para tais grupos (Dwivedi et al., 2023, Kaufman, 2022; Silva, 2022; Unesco, 2024).”
Diante destas constatações, os pesquisadores também apontam a necessidade do uso ético e responsável das ferramentas de IA pela produção científica brasileira. Para isso, eles abordam a necessidade de “uma educação crítica, reflexiva e consciente sobre o uso de IAG [Inteligência Artificial Generativa], numa perspectiva de letramento.”
No guia, são apresentados princípios gerais das tecnologias, explica os usos em diferentes fases da pesquisa acadêmica – de pesquisa, escrita, análise de dados, tradução, entre outros -, a necessidade do olhar humano como revisor e orientador dos conteúdos, e apresenta quais diversos riscos e cuidados que os pesquisadores devem ter sobre a privacidade e a integridade acadêmica.
Acesse aqui a íntegra da publicação.