A criação de chips projetados para lidar com os tipos específicos de processamento de dados que a Meta exige pode levar a projetos que consomem menos energia e com um custo melhor.
Os novos chips fazem parte do programa Meta Training and Inference Accelerator (MTIA) da empresa, e o primeiro deles, o MTIA 300, já está em uso, alimentando os sistemas de recomendação da empresa. Os outros três serão lançados este ano e em 2027, sendo que os dois últimos, o MTIA 450 e o 500, foram projetados para realizar inferência, o processo pelo qual um modelo de IA, como o que alimenta o aplicativo ChatGPT, responde a consultas e solicitações de clientes.
“Estamos vendo a demanda por inferência explodir no momento e é nisso que estamos focados atualmente”, disse Yee Jiun Song, vice-presidente de engenharia da Meta, em entrevista.
A Meta obteve algum sucesso com chips de inferência, mas tem enfrentado dificuldades em sua ambição de longa data de criar um chip de treinamento de IA generativa, capaz de construir os grandes modelos que alimentam os aplicativos de IA.
Começando pelo MTIA 400, que a empresa afirma estar a caminho de ser usado em seus data centers, a Meta projetou um sistema completo em torno dos chips, que tem aproximadamente o tamanho de vários racks de servidores e inclui uma versão de resfriamento líquido.
A empresa planeja lançar os novos chips em intervalos de seis meses, pois está expandindo rapidamente o número de data centers que utiliza para executar aplicativos como Instagram e Facebook, disse Song.












Deixe um comentário