Os responsáveis alegam que o chatbot validou os pensamentos suicidas de Raine, forneceu informações detalhadas sobre métodos letais de automutilação e o instruiu sobre como roubar álcool do armário de bebidas de seus pais e esconder evidências de uma tentativa fracassada de suicídio. O ChatGPT até se ofereceu para redigir uma nota de suicídio, disseram os pais, Matthew e Maria Raine, no processo.
A ação judicial quer responsabilizar a OpenAI por homicídio culposo e violações das leis de segurança de produtos, além de buscar indenizações monetárias não especificadas.
Um porta-voz da OpenAI disse que a empresa está triste pelo falecimento de Raine e que o ChatGPT possui salvaguardas, como direcionar pessoas para linhas de apoio em situações de crise.
“Embora essas proteções funcionem melhor em trocas curtas e comuns, aprendemos ao longo do tempo que elas podem se tornar menos confiáveis em interações longas, nas quais partes do treinamento de segurança do modelo podem se degradar”, disse o porta-voz, acrescentando que a OpenAI vai aprimorar de forma contínua suas proteções.
A OpenAI não comentou especificamente sobre as alegações feitas na ação judicial.
Em uma publicação de blog, a OpenAI mencionou que está planejando implementar controles parentais e explorar formas de conectar usuários em crise a recursos do mundo real. Isso inclui a potencial criação de uma rede de profissionais licenciados que possam responder por meio do próprio ChatGPT.
Deixe um comentário