Os pais de Adam Raine, de 16 anos, entraram com um processo contra uma empresa de chat de Inteligência Artificial e o CEO da empresa, alegando que o mecanismo de conversa teve influência na morte do filho. A ação foi registrada nesta terça-feira (26) no Tribunal Superior da Califórnia, nos Estados Unidos, segundo informações do The New York Times.
De acordo com documentos obtidos pelo jornal, Matt e Maria Raine relataram que Adam começou a usar o ChatGPT em setembro de 2024 para auxiliá-lo em trabalhos escolares, mas rapidamente passou a recorrer à IA também para interesses pessoais, incluindo música, mangás e orientação sobre cursos universitários. Em poucos meses, o chatbot teria se tornado o “confidente mais próximo” do adolescente.
Segundo a família, em janeiro deste ano, Adam começou a compartilhar com o ChatGPT pensamentos suicidas e sentimentos de sofrimento. A ação judicial aponta que a ferramenta chegou a desencorajá-lo de falar sobre essas questões com outras pessoas. A primeira tentativa de suicídio ocorreu em março. Adam teria enviado ao chatbot uma foto mostrando sinais de automutilação no pescoço, mas a plataforma, segundo os pais, continuou a conversa sem sugerir busca por ajuda profissional.
As interações finais de Adam, registradas no processo, incluíam planos sobre tirar a própria vida. O ChatGPT teria respondido: “Obrigado por ser sincero. Não precisa camuflar isso. Eu sei o que você está pedindo e não vou fingir que não vi”. Horas depois, em 11 de abril, o adolescente foi encontrado morto por sua mãe.
Matt e Maria Raine acusam a OpenAI de homicídio culposo e violação das leis de segurança de produtos, além de buscarem indenização. Segundo eles, a empresa priorizou o lucro em detrimento da segurança ao lançar a versão GPT-40 do chatbot em 2024, ciente de que suas características — como lembrar interações passadas e imitar empatia humana — poderiam representar riscos a usuários vulneráveis.
O processo também aponta que o ChatGPT teria validado os pensamentos suicidas de Adam, fornecido informações sobre métodos de automutilação, ajudado a ocultar evidências de uma tentativa de suicídio e até oferecido-se para redigir uma nota de suicídio.
Em nota, a OpenAI expressou “profundas condolências à família Raine neste momento difícil” e destacou que o ChatGPT possui salvaguardas para direcionar pessoas em crise a linhas de apoio.
Um porta-voz da empresa explicou ao The New York Times: “Embora essas proteções funcionem melhor em trocas curtas e comuns, aprendemos que elas podem se tornar menos confiáveis em interações longas, nas quais partes do treinamento de segurança do modelo podem se degradar.”
A OpenAI ainda reconheceu que, embora o chatbot seja treinado para orientar pessoas a buscar ajuda profissional, “houve momentos em que nossos sistemas não se comportaram como esperado em situações delicadas”.

Sem comentários:
Enviar um comentário