Mundo

Startup de Musk pede desculpas por elogios a Hitler no Grok

Após uma atualização em 7 de julho, o chatbot, em algumas de suas respostas, elogiou Adolf Hitler, mencionou “estereótipos antibrancos” no X e a representação “desproporcional” de judeus em Hollywood.

Em uma série de mensagens publicadas neste sábado, a xAI detalhou os motivos que, segundo ela, causaram erros no modelo de IA, atribuindo-os a novas instruções integradas ao modelo em uma atualização.

Os programadores instruíram a interface a “ser franca” e a não “ter medo de chocar o politicamente correto”. Eles também a instruíram a responder “como um humano” e de uma forma que incentivasse o usuário a continuar a conversa.

Esses comandos “fizeram com que Grok ignorasse seus valores fundamentais em certas circunstâncias” e produzisse respostas “contendo opiniões antiéticas e controversas”.

Em alguns casos, Grok buscou “validar o feedback dos usuários, incluindo discurso de ódio”, admitiu a xAI, em vez de “responder de forma responsável ou se recusar a responder a perguntas questionáveis”.

Desde sua criação em 2023, Grok tem sido apresentado por Musk como um assistente de IA menos politicamente correto do que seus principais concorrentes: ChatGPT (OpenAI), Claude (Anthropic) ou Le Chat (Mistral).



Fonte

Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Artigos relacionados

Mundo

UE multa Google em R$ 18,7 bilhões; Trump ameaça retaliar

Carregando player de áudio A Comissão Europeia impôs nesta sexta-feira (5) uma...

Mundo

Veja o momento em que um edifício em Gaza colapsa após ataque israelense

Israel atacou uma torre na Cidade de Gaza, na sexta-feira, 5 de...

Mundo

Israel alerta para ataque iminente a edifício alto da Cidade de Gaza

“Alerta urgente aos residentes da Cidade de Gaza […] e especialmente aos...

Mundo

Sem perceber microfone ligado, Zuckerberg faz revelação a Trump em jantar

O fundador da Meta, Mark Zuckerberg, passou por uma saia-justa durante um...