*A própria Anthropic vinha dizendo que o Mythos é especialmente bom em encontrar falhas escondidas em softwares usados por bancos, redes elétricas e governos, e que por isso precisava de uma liberação coordenada para dar tempo de reforçar defesas.
*Em paralelo, a empresa admitiu que o Claude Code (ferramenta de IA que virou queridinha para programar) piorou para parte dos usuários, mas disse que não mexeu no modelo de propósito: foram mudanças no produto, como ajuste do nível padrão de “raciocínio”, um bug ligado à otimização de cache e um comando interno para deixar respostas menos longas.
*Não para aí: a Anthropic também vazou, por “erro humano”, parte do código-fonte interno do Claude Code: um arquivo incluído por engano apontava para um pacote com cerca de 2.000 arquivos e 500 mil linhas, que foi parar no GitHub; a empresa pediu remoção por direitos autorais e disse que não havia dados de clientes nem credenciais.
*A Anthropic ainda mudou a regra de uso do Claude em ferramentas de terceiros como o OpenClaw: a assinatura deixa de cobrir esse tipo de acesso, e quem quiser usar passa a pagar à parte no modelo “pague pelo que usar”, com crédito único equivalente ao valor do plano.
*Analistas descrevem o pacote como “dores do crescimento”: demanda alta pressiona capacidade (limites e instabilidades), mudanças de preço e produto confundem usuários, e incidentes de segurança se acumulam num momento em que a empresa cogita abrir capital.
IAgora?
Ninguém fez mais burburinho na bolha das gigantes de IA neste ano do que a Anthropic. Mesmo com bem menos usuários do que os rivais gigantes OpenAI e Google, a dona do Claude cresceu principalmente entre quem usa IA para programar e usuários corporativos – a ponto até de alguns compararem ela ao Google em 2002, enquanto o Yahoo seria a OpenAI.













Deixe um comentário