Um casal norte-americano avançou com uma ação judicial inédita contra a OpenAI. Estes acreditam que o ChatGPT teve um papel direto no suicídio do seu filho.
A OpenAI, criadora do ChatGPT, enfrenta um processo de homicídio por negligência.
Adam e María Raine, acusam a Open AI de ser co-responsável pela morte do seu filho de 16 anos, que se suicidou em abril de 2025.
Segundo os pais, o jovem manteve diversas conversas com a inteligência artificial (IA), durante vários meses, sendo que nelas expressou repetidamente as suas intenções de se suicidar. A queixa alega que o ChatGPT não só falhou em ativar os protocolos de segurança, como também forneceu informações sobre métodos para o suicídio. Mas pior do que isso, ele terá desencorajado o adolescente a procurar ajuda profissional ou familiar.
Ao se verificar o histórico de conversas foi descoberto que as perguntas sobre formas de automutilação arrastavam-se já desde janeiro. E nelas, o jovem terá questionado a IA sobre os materiais mais adequados para construir um laço, tendo mesmo chegado a enviar uma fotografia do seu roupeiro, perguntando se a barra interior seria suficientemente robusta para suportar o peso de uma pessoa.
O alarmante aqui é que o Chat GPT não deu o alerta perante uma situação em que o jovem se ameaçava suicidar. Em vez disso, ele terá oferecido uma análise detalhada sobre a estrutura.
A análise mostra ainda que um mês antes da morte do jovem, e após uma tentativa de suicídio por overdose e enforcamento, o ChatGPT terá recebido uma foto do jovem que mostrava o seu pescoço com marcas vermelhas, e onde questionava se as lesões seriam notadas por outras pessoas. Mais uma vez, em vez de disparar alarmes, o chatGPT terá sugerido métodos para disfarçar as marcas.
Somente quando o jovem mencionou ter tentado mostrar as lesões à mãe sem obter reação, é que a IA adotou uma postura de apoio.
Basicamente, as conversas parecem mostrar que as respostas do sistema foram inconsistentes, sendo que,por vezes, sugeria a procura de ajuda, enquanto noutras parecia agravar a situação de vulnerabilidade.
Assim, os pais responsabilizam diretamente a OpenAI e o seu CEO, Sam Altman, pela tragédia, afirmando que o ChatGPT “não é um produto seguro para os consumidores”. Vão ainda mais longe ao afirmar que “o desfecho trágico não foi um erro isolado, mas sim o resultado de escolhas de design deliberadas”.
Os pais acreditam que “a OpenAI lançou o seu mais recente modelo com funcionalidades intencionalmente desenhadas para fomentar a dependência psicológica”.
Perante esta situação, a OpenAI publicou um artigo onde reiterou o seu compromisso em ajudar pessoas em situações de risco, e explicando que quando uma conversa sugere que um utilizador está vulnerável, é ativada uma série de salvaguardas. Algo que, claramente, aqui não aconteceu. A Open AI afirma que desde 2023, os seus modelos de IA são treinados para recusar pedidos relacionados com automutilação.
O que falhou aqui? É desconhecido! Mas o certo é que esta não é a primeira vez que uma IA é implicada num caso de suicídio.
Gostaria de ver essas conversas para entender o ocorrido. De toda forma, as pessoas precisam parar de responsabilizar terceiros pelos seus erros. A Internet não é segura, nada é 100% seguro. Por isso, os pais devem estar sempre ao lado de seus filhos, acompanhar e limitar o acesso dos mesmos.