Temos salvaguardas robustas e múltiplas camadas de defesa para detectar esses tipos de mau uso, mas determinadas pessoas, às vezes, conseguem enganar nossos sistemas por meio de técnicas sofisticadas
Jacob Klein, chefe de inteligência de ameaças da Anthropic
Hacker criou malware, fez análise de dados e escolheu vítimas com a ajuda do Claude. O e-mail convincente para o “golpe” foi todo feita pelo chatbot e enviado por e-mail. A operação ocorreu por três meses até a companhia detectar e bloquear o usuário da plataforma. A Anthropic diz ainda que denunciou o homem, que não é dos EUA, para as autoridades.
Maioria dos sistemas de inteligência artificial tem travas, mas hackers conseguem achar alternativas. Relatório também preocupa, pois mostra como cibercriminosos, mesmo sem grande conhecimento em tecnologia, conseguem burlar a segurança de chatbots e desenvolverem estratégias bem convincentes para enganar as pessoas.
Funcionários norte-coreanos de TI
Norte-coreanos criam perfis falsos para trabalharem em vagas remotas. O esquema é conhecido, mas não se sabia ao certo o uso de inteligência artificial nesse processo. Objetivo é tentar obter dinheiro para o regime ou se infiltrar em empresas de interesse do país asiático.
Anthropic diz que norte-coreanos usavam Claude para preencher vagas e o ajudavam na criação de um perfil. Uma vez que conseguiam a vaga, esses funcionários usavam o chatbot para traduzir mensagens (para o inglês) e a criar códigos de programação. “Isso representa uma nova fase nesse tipo de golpe”, diz o relatório.
Deixe um comentário