Tem surgido deepfakes feitas para constranger mulheres, para sexualizar crianças, e o pivô dessa história é o Grok, que é a inteligência artificial da xAI. Ele conseguiu concatenar o ódio de vários países e várias agências regulatórias, justamente porque colocou na mão de vários usuários e permitiu que as pessoas fizessem deepfakes de crianças e mulheres -e também deepnudes, que é a versão mais nefasto das deepfakes.
Helton Simões Gomes
Além de voltar os olhos para os usuários que criam e espalham esse conteúdo, é preciso não deixar de fora da discussão as empresas que desenvolvem e oferecem as ferramentas de IA e as redes onde o material sintético circula. Helton chama a atenção para o esforço que as plataformas fizeram para reduzir a pirataria de música em vídeos: bastou vontade para criarem barreiras e sistemas de controle.
Cortiz detalha as soluções técnicas em disputa. Uma delas é a marca d’água invisível, com alterações em pixels que o olho humano não percebe, mas algoritmos detectam. Outra é o uso de metadados, como as chamadas “content credentials”, que detalham histórico de edição, incluindo se algo foi criado por IA. O revés é que isso pode ser burlado com um simples “print screen”.
O desafio é padronizar esse tipo de identificação entre empresas, ainda que várias delas se unam em consórcios para criar normas a serem adotadas pela indústria. O “jogo de gato e rato” envolve ainda modelos de IA de código aberto que podem ter camadas de segurança removidas por outros desenvolvedores.
No Brasil, Cortiz diz que o tema ganhou força quando figuras públicas denunciaram o uso indevido de suas imagens em golpes, como deepfakes de Drauzio Varella e Pedro Bial “vendendo vitamina” e outros produtos. Recentemente, a Meta processou na Justiça pessoas que fizeram publicidades enganosas.
Para Cortiz, a saída passa por duas frentes simultâneas: tecnologia e regulação, para forçar as empresas a adotar soluções. Ele ainda lembra que 2026 é ano eleitoral no Brasil, o que aumenta a urgência de discutir como limitar a proliferação de deepfakes.













Deixe um comentário