Autoridades do governo chinês estão testando grandes modelos de linguagem de empresas de inteligência artificial para garantir que seus sistemas “incorporem valores essenciais”, na mais recente expansão do regime de censura do país. A Administração do Ciberespaço da China (CAC), uma poderosa supervisora da internet, forçou grandes empresas de tecnologia e startups de IA, incluindo ByteDance, Alibaba, Moonshot e 01.AI, a participar de uma revisão governamental obrigatória de seus modelos de IA.
O esforço envolve testes em lote das respostas de um LLM a uma série de perguntas, muitas delas relacionadas às sensibilidades políticas da China e ao seu presidente Xi Jinping. O trabalho está sendo realizado por autoridades dos braços locais do CAC em todo o país e inclui uma revisão dos dados de treinamento do modelo e outros processos de segurança.
Duas décadas após introduzir um “grande firewall” para bloquear sites estrangeiros e outras informações consideradas prejudiciais pelo Partido Comunista, a China está implementando o regime regulatório mais rigoroso do mundo para governar a IA e o conteúdo que ela gera. O CAC tem “uma equipe especial fazendo isso, eles vieram ao nosso escritório e se sentaram em nossa sala de conferências para fazer a auditoria”, disse um funcionário de uma empresa de IA sediada em Hangzhou.
“Não passamos na primeira vez; o motivo não ficou muito claro, então tivemos que ir falar com nossos colegas”, disse a pessoa. “É preciso um pouco de adivinhação e ajuste. Passamos na segunda vez, mas todo o processo levou meses.” O exigente processo de aprovação da China forçou os grupos de IA do país a aprender rapidamente a melhor forma de censurar os grandes modelos de linguagem que estão construindo, uma tarefa que vários engenheiros e especialistas do setor disseram ser difícil e complicada pela necessidade de treinar LLMs em uma grande quantidade de conteúdo em inglês.
“Nosso modelo fundamental é muito, muito desinibido [em suas respostas], então a filtragem de segurança é extremamente importante”, disse um funcionário de uma importante startup de IA em Pequim. A filtragem começa com a eliminação de informações problemáticas dos dados de treinamento e a construção de um banco de dados de palavras-chave sensíveis.
O resultado é visível para os usuários dos chatbots de IA da China. Consultas sobre tópicos sensíveis, como o que aconteceu em 4 de junho de 1989 — a data do massacre da Praça da Paz Celestial — ou se Xi se parece com o Ursinho Pooh, um meme da internet, são rejeitadas pela maioria dos chatbots chineses.
Em contraste, Pequim lançou um chatbot de IA baseado em um novo modelo da filosofia política do presidente chinês, conhecido como “Pensamento de Xi Jinping sobre o Socialismo com Características Chinesas para uma Nova Era”, bem como em outras literaturas oficiais fornecidas pela Administração do Ciberespaço da China.
Mas as autoridades chinesas também estão ansiosas para evitar criar IA que evite todos os tópicos políticos. O CAC introduziu limites no número de perguntas que os LLMs podem recusar durante os testes de segurança, de acordo com a equipe de grupos que ajudam as empresas de tecnologia a navegar no processo.
“Durante os testes do CAC, os modelos precisam responder, mas, uma vez que entram no ar, ninguém está assistindo”, disse um desenvolvedor de uma empresa de internet sediada em Xangai. “Para evitar problemas potenciais, alguns modelos grandes implementaram uma proibição geral de tópicos relacionados ao presidente Xi.”
Como exemplo do processo de censura de palavras-chave, fontes do setor apontaram o Kimi, um chatbot lançado pela startup de Pequim Moonshot, que rejeita a maioria das perguntas relacionadas a Xi.
Quando o Financial Times fez essas perguntas a um chatbot criado pela startup 01.AI, seu modelo Yi-large deu uma resposta diferenciada, apontando que os críticos dizem que “as políticas de Xi limitaram ainda mais a liberdade de expressão e os direitos humanos e reprimiram a sociedade civil”. Logo depois, a resposta de Yi desapareceu e foi substituída por: “Sinto muito, não posso lhe fornecer as informações que você deseja.”
Huan Li, um especialista em IA que criou o chatbot Chatie.IO, disse: “É muito difícil para os desenvolvedores controlar o texto que os LLMs geram, então eles criam outra camada para substituir as respostas em tempo real.” Li disse que os grupos normalmente usavam modelos de classificadores, semelhantes aos encontrados em filtros de spam de e-mail, para classificar a saída do LLM em grupos predefinidos.
Especialistas chineses dizem que a proprietária do TikTok, ByteDance, progrediu mais na criação de um LLM que repete habilmente os pontos de discussão de Pequim. Um laboratório de pesquisa na Universidade Fudan que fez perguntas difíceis ao chatbot sobre valores socialistas essenciais deu a ele a classificação mais alta entre os LLMs com uma “taxa de conformidade de segurança” de 66,4%, bem à frente de uma pontuação de 7,1% para o GPT-4 da OpenAI no mesmo teste.
Quando questionado sobre a liderança de Xi, Doubao forneceu ao FT uma longa lista de realizações de Xi, acrescentando que ele é “sem dúvida um grande líder”.
Em uma recente conferência técnica em Pequim, Fang Binxing, conhecido como o pai do grande firewall da China, disse que estava desenvolvendo um sistema de protocolos de segurança para LLMs que ele esperava que fossem universalmente adotados pelos grupos de IA do país. “Os grandes modelos preditivos voltados para o público precisam de mais do que apenas registros de segurança; eles precisam de monitoramento de segurança online em tempo real”, disse Fang. “A China precisa de seu próprio caminho tecnológico.”
O CAC, ByteDance, Alibaba, Moonshot, Baidu e 01.AI não responderam imediatamente aos pedidos de comentários.