A destilação é uma prática comum no desenvolvimento de IA, que as empresas costumam usar para criar versões mais baratas e menores de seus próprios modelos.
A prática ganhou manchetes há um ano, quando o lançamento de um modelo de IA generativa de baixo custo da DeepSeek teve um desempenho semelhante ao do ChatGPT e de outros chatbots americanos líderes de mercado, o que abalou as suposições sobre a hegemonia dos Estados Unidos nesse setor.
Segundo a Anthropic, as empresas alcançaram seus objetivos por meio de aproximadamente 16 milhões de interações com o seu modelo Claude e 24 mil contas falsas.
Isso permitiu que os três laboratórios extraíssem capacidades que não haviam desenvolvido de forma independente, a uma fração do custo. Ao fazê-lo, contornaram os controles de exportação sobre tecnologia avançada americana, acrescentou a companhia.
A companhia alega que essa prática representa riscos para a segurança nacional, pois é improvável que os modelos construídos por meio de destilação ilícita mantenham os mecanismos de segurança concebidos para evitar usos indevidos, como restrições a ajudar a desenvolver armas biológicas ou facilitar ciberataques.
A OpenAI, arquirrival da Anthropic e criadora do ChatGPT, apresentou acusações semelhantes a legisladores nos Estados Unidos no início deste mês.












Deixe um comentário