Os chips da Cerebras vão equipar data centers da Amazon Web Services (AWS) e serão vinculados aos chips de IA personalizados Trainium3 da própria Amazon, conectados à tecnologia de rede personalizada da Amazon.
“Todos os clientes, grandes ou pequenos, estão na AWS, desde desenvolvedores individuais até os maiores bancos do mundo”, disse o presidente-executivo da Cerebras, Andrew Feldman, à Reuters, afirmando que o acordo “tornará fácil como um clique entrar na Cerebras”.
O valor do negócio não foi revelado.
Amazon e Cerebras se unirão para lidar com o que é conhecido como “inferência”, em que sistemas de IA previamente treinados recebem solicitações de usuários e fornecem respostas. As duas empresas dividirão essa tarefa em duas etapas, uma chamada “pré-preenchimento”, em que a solicitação do usuário é transformada de palavras humanas para a linguagem de “tokens” que os computadores de IA usam, e um estágio de “decodificação”, em que o computador de IA fornece a resposta que o usuário está procurando.
A Amazon disse que seus chips Trainium3 cuidarão do pré-preenchimento, enquanto os chips Cerebras cuidarão da decodificação, o que Feldman disse à Reuters ser uma “estratégia de dividir para conquistar”.
É uma estratégia semelhante àquela que os analistas esperam que a Nvidia revele na próxima semana, quando detalhará como planeja combinar seus próprios chips gráficos (GPU) com os da Groq, uma startup na qual investiu US$17 bilhões no final de dezembro. A Amazon disse que ainda não podia fazer uma comparação detalhada entre sua oferta, que entrará em operação no segundo semestre deste ano, e a oferta ainda não revelada da Nvidia.











Deixe um comentário