Chat GPT/Open Ai processados por homicídio por negligência

Um casal norte-americano avançou com uma ação judicial inédita contra a OpenAI. Estes acreditam que o ChatGPT teve um papel direto no suicídio do seu filho.

A OpenAI, criadora do ChatGPT, enfrenta um processo de homicídio por negligência.

Adam e María Raine, acusam a Open AI de ser co-responsável pela morte do seu filho de 16 anos, que se suicidou em abril de 2025.

Segundo os pais, o jovem manteve diversas conversas com a inteligência artificial (IA), durante vários meses, sendo que nelas expressou repetidamente as suas intenções de se suicidar. A queixa alega que o ChatGPT não só falhou em ativar os protocolos de segurança, como também forneceu informações sobre métodos para o suicídio. Mas pior do que isso, ele terá  desencorajado o adolescente a procurar ajuda profissional ou familiar.

Ao se verificar o histórico de conversas foi descoberto que as perguntas sobre formas de automutilação arrastavam-se já desde janeiro. E nelas, o jovem terá questionado a IA sobre os materiais mais adequados para construir um laço, tendo mesmo chegado a enviar uma fotografia do seu roupeiro, perguntando se a barra interior seria suficientemente robusta para suportar o peso de uma pessoa.



O alarmante aqui é que o Chat GPT não deu o alerta perante uma situação em que o jovem se ameaçava suicidar. Em vez disso, ele terá oferecido uma análise detalhada sobre a estrutura.

A análise mostra ainda que um mês antes da morte do jovem, e após uma tentativa de suicídio por overdose e enforcamento, o ChatGPT terá recebido uma foto do jovem que mostrava o seu pescoço com marcas vermelhas, e onde questionava se as lesões seriam notadas por outras pessoas. Mais uma vez, em vez de disparar alarmes, o chatGPT terá sugerido métodos para disfarçar as marcas.

Somente quando o jovem mencionou ter tentado mostrar as lesões à mãe sem obter reação, é que a IA adotou uma postura de apoio.

Basicamente, as conversas parecem mostrar que as respostas do sistema foram inconsistentes, sendo que,por vezes, sugeria a procura de ajuda, enquanto noutras parecia agravar a situação de vulnerabilidade.

Assim, os pais responsabilizam diretamente a OpenAI e o seu CEO, Sam Altman, pela tragédia, afirmando que o ChatGPT “não é um produto seguro para os consumidores”. Vão ainda mais longe ao afirmar que “o desfecho trágico não foi um erro isolado, mas sim o resultado de escolhas de design deliberadas”.

Os pais acreditam que “a OpenAI lançou o seu mais recente modelo com funcionalidades intencionalmente desenhadas para fomentar a dependência psicológica”.



Perante esta situação, a OpenAI publicou um artigo onde reiterou o seu compromisso em ajudar pessoas em situações de risco, e explicando que quando uma conversa sugere que um utilizador está vulnerável, é ativada uma série de salvaguardas. Algo que, claramente, aqui não aconteceu. A Open AI afirma que desde 2023, os seus modelos de IA são treinados para recusar pedidos relacionados com automutilação.

O que falhou aqui? É desconhecido! Mas o certo é que esta não é a primeira vez que uma IA é implicada num caso de suicídio.



Subscreva
Notify of
guest
1 Comentário
Antigos
Recentes
Inline Feedbacks
Ver todos os comentários
Hennan
Hennan
7 de Setembro de 2025 11:04

Gostaria de ver essas conversas para entender o ocorrido. De toda forma, as pessoas precisam parar de responsabilizar terceiros pelos seus erros. A Internet não é segura, nada é 100% seguro. Por isso, os pais devem estar sempre ao lado de seus filhos, acompanhar e limitar o acesso dos mesmos.

error: Conteúdo protegido
1
0
Queríamos ouvir a tua opinião. Comenta!x