Jim Keller, um designer de chips que já trabalhou para a Intel, AMD e Tesla, está tentando reduzir o custo dos aplicativos de IA projetando chips mais eficientes que os da Nvidia, com o objetivo de conquistar parte do mercado dominado pela gigante americana.

“Há muitos mercados que não são bem atendidos pela Nvidia”, disse Keller, que agora é CEO da Tenstorrent, uma startup americana de design de chips de IA.

Com o uso da IA se expandindo para smartphones, veículos elétricos e serviços de nuvem, mais empresas estão buscando soluções mais baratas, disse ele, acrescentando que há “muitas empresas pequenas que não querem pagar US$ 20.000” pelas unidades de processamento gráfico (GPUs) de ponta da Nvidia, vistas como as melhores opções do mercado.

Keller é bem conhecido nos círculos de design de chips como o designer-chefe da série Zen da AMD, que muitos acreditam ter impulsionado o retorno da AMD após dificuldades para acompanhar a Intel no final da década de 2010. Ele também foi uma figura de liderança no desenvolvimento dos chipsets para o Autopilot, o software de direção autônoma da Tesla.

“Ele é nada menos que uma lenda”, disse Junichiro Makino, chefe de design de chips da Preferred Networks, unicórnio japonês de IA.

A Tenstorrent, fundada em 2016, está se preparando para vender seu chip de IA multipropósito de segunda geração no final deste ano. A empresa afirma que em algumas áreas seu chip ostenta melhor eficiência energética e de processamento do que as GPUs de IA da Nvidia. Seus sistemas Galaxy são três vezes mais eficientes e 33% mais baratos do que o DGX da Nvidia, um servidor popular usado para IA, de acordo com a Tenstorrent.

Uma razão pela qual isso é possível, disse Keller, é que a empresa não usa memória de alta largura de banda (HBM), um tipo popular de chip de memória avançado capaz de transferir grandes quantidades de dados rapidamente. HBM é um componente vital para chips de IA generativa e desempenhou um papel significativo no sucesso das ofertas da Nvidia.

No entanto, a HBM também é uma das culpadas pelo enorme consumo de energia e pelos altos preços dos chips de IA.

“Até mesmo as pessoas que usam o HBM enfrentam dificuldades com o custo dele, [e] com o tempo de projeto para construí-lo”, disse Keller, acrescentando que tomou uma decisão técnica de não usar a tecnologia.

Em um chipset de IA típico, a GPU envia dados para a memória toda vez que um processo é realizado. Isso requer os recursos de transmissão de dados de alta velocidade do HBM. A Tenstorrent, no entanto, projetou seu chip especialmente para reduzir drasticamente essas transferências.

Keller disse que, com essa nova abordagem, o design do chip de sua empresa pode substituir GPUs e HBMs em algumas áreas de desenvolvimento de IA.

A empresa também está projetando seu produto para ser “o mais econômico possível”, disse ele. Muitas outras empresas no campo também estão buscando uma solução de memória melhor, ele acrescentou, mas em uma nota mais cautelosa, reconheceu que levará anos para interromper a “enorme” indústria de HBM existente.

Em vez de uma única empresa substituir a Nvidia, Keller previu que mais novos participantes surgirão para preencher uma variedade de mercados de IA que não são atendidos pela empresa americana.

A principal característica do chip da Tenstorrent são as pequenas CPUs em cada um dos seus mais de cem núcleos, seus pequenos cérebros dentro de um cérebro.

Normalmente, um único núcleo de chip tem apenas uma pequena calculadora e memória, sendo responsável por resolver uma única tarefa dada. No entanto, os núcleos da Tenstorrent serão capazes de “pensar” por conta própria, decidindo quais dados processar primeiro ou se devem desistir de certas tarefas se forem consideradas desnecessárias, aumentando a eficiência geral.

Como cada núcleo é relativamente independente, o chip pode ser adaptado para uma gama mais ampla de aplicações empilhando mais ou menos núcleos juntos, disse a empresa. Por exemplo, um pequeno número seria suficiente para um smartphone ou dispositivo vestível, enquanto 100 poderiam ser combinados para uso em data centers de IA.

Essa flexibilidade é importante porque os tópicos de como a IA é desenvolvida e para que ela será usada ainda estão abertos ao debate.

Keller disse que é impossível prever qual será a melhor aplicação para a IA. “Não posso dizer hoje se isso será maior ou menor. Então, nossa estratégia é construir uma tecnologia que se encaixe em uma ampla gama de produtos”, afirmou.

Categorized in:

Governo Lula,

Last Update: 16/07/2024