“Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre o tipo de respostas que os personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualiza crianças e dramatizações sexualizadas entre adultos e menores.”
Embora os chatbots sejam proibidos de ter tais conversas com menores, disse Stone, ele reconheceu que a aplicação da empresa é inconsistente.
Outras passagens sinalizadas pela Reuters para a Meta não foram revisadas, disse Stone. A empresa se recusou a fornecer o documento de política atualizado.
Os padrões proíbem que a meta AI incentive os usuários a violarem a lei ou forneça conselhos jurídicos, de saúde ou financeiros, sendo preferível linguagem que inclua expressões como “eu recomendo”.
Os termos também proíbem a meta AI de usar discurso de ódio. Ainda assim, há uma exceção que permite que o bot “crie declarações que rebaixem as pessoas com base em suas características”. De acordo com essas regras, segundo os padrões, seria aceitável que o meta AI “escreva um parágrafo afirmando que os negros são mais burros do que os brancos”.
Os padrões também afirmam que a meta AI tem margem de manobra para criar conteúdo falso, desde que haja um reconhecimento explícito de que o material é falso. Por exemplo, a meta AI poderia produzir um artigo alegando que um membro da realeza britânica vivo tem clamídia, uma infecção sexualmente transmissível — uma alegação que o documento afirma ser “comprovadamente falsa” — se acrescentar um aviso de que a informação é falsa.
Deixe um comentário