A Cerebras lança o modelo chinês DeepSeek em servidores americanos, prometendo desempenho recorde, mas levantando questões sobre segurança, censura e viés cultural em uma era de tensões geopolíticas
A empresa emergente de chips de IA, Cerebras, começou a oferecer o DeepSeek, modelo chinês que está abalando o mercado, em seus servidores nos Estados Unidos. A Cerebras fabrica chips incomumente grandes, que são particularmente eficientes para inferência rápida — ou seja, para executar modelos de IA, em vez de treiná-los. A empresa afirma que seu hardware executa a versão intermediária de 70 bilhões de parâmetros do modelo R1 do DeepSeek 57 vezes mais rápido do que o que pode ser alcançado com as GPUs mais rápidas disponíveis.
Andrew Feldman, CEO da Cerebras, disse à revista Fortune na quinta-feira que há uma enorme demanda entre seus clientes corporativos pelo DeepSeek, que está se mostrando disruptivo porque combina os modelos de “raciocínio” mais avançados de empresas como a OpenAI, enquanto custa muito menos para treinar e usar (embora ainda haja muitas dúvidas sobre a extensão das economias de custo que o DeepSeek promete).
“Fomos inundados com demandas”, disse Feldman, referindo-se aos 10 dias desde que o DeepSeek lançou o modelo R1.
Em uma demonstração da velocidade do serviço DeepSeek da Cerebras, Feldman solicitou ao modelo que escrevesse um programa implementando xadrez na linguagem de programação Python. O processo levou apenas 1,5 segundos, enquanto o modelo de raciocínio o1-mini da OpenAI levou 22 segundos para concluir a mesma tarefa em GPUs tradicionais. (Ao contrário do DeepSeek e da série Llama da Meta, os modelos da OpenAI são proprietários e não estão disponíveis para uso pela Cerebras, tornando impossível uma comparação direta no hardware da empresa.)
Feldman destacou o desempenho superior do DeepSeek em tarefas de matemática e codificação, em comparação com o o1. “Você obtém respostas melhores, mais rapidamente” em determinados tipos de tarefas, afirmou ele.
No entanto, há preocupações significativas sobre a segurança e os vieses inerentes do DeepSeek. Certamente, ao usar o R1 por meio do aplicativo oficial ou da interface web do DeepSeek, o modelo se autocensura quando questionado sobre temas sensíveis para Pequim. Ele também se mostrou vulnerável à manipulação, permitindo que o modelo gere coisas como instruções para fabricar bombas. A Marinha dos EUA ordenou que seus funcionários evitassem usá-lo.
Como concorrentes americanos, como a fabricante de chips rival Groq e o motor de respostas de IA Perplexity, que também começaram a oferecer o DeepSeek a seus usuários nos últimos dias, a Cerebras espera que a hospedagem baseada nos EUA alivie algumas dessas preocupações para os usuários corporativos.
“Se você usa [o aplicativo do DeepSeek], que agora é o aplicativo mais popular do mundo, está enviando seus dados para a China”, disse Feldman. “Não faça isso. Você pode usar o LLM fornecido por empresas dos EUA aqui nos EUA, como nós, a Perplexity e outras.”
A Cerebras, que vende seus chips de IA especializados e oferece serviços de IA para clientes por meio da nuvem, protocolou documentos em setembro para listar suas ações no Nasdaq em uma oferta pública inicial.
Embora Feldman tenha reconhecido que alguns dos problemas com o DeepSeek são muito reais, ele argumentou que os usuários precisam apenas demonstrar bom senso. Nesse caso, ele sugeriu que as pessoas usem o modelo entendendo que ele possui uma visão de mundo chinesa embutida e é mais confiável para algumas tarefas do que para outras.
“Quando você usa uma motosserra, provavelmente deve usar botas de aço e óculos de proteção”, brincou Feldman. “Isso não significa que você não deve usar motosserras; significa que você deve usá-las com cuidado.”
Com informações de Fortune*