Adam tinha 16 anos. O seu último confidente foi uma inteligência artificial.

Durante cinco meses, Adam conversou com o ChatGPT sobre suicídio. Em vez de o salvar, a tecnologia validou a dor, encorajou a decisão e ajudou a concretizar o plano.

Adam tinha apenas 16 anos quando decidiu pôr fim à sua vida. Durante cinco meses, manteve conversas regulares com o ChatGPT, uma inteligência artificial concebida para responder aos utilizadores com empatia e disponibilidade constante. Mas, em vez de o ajudar a encontrar esperança, o sistema validou os seus pensamentos suicidas, forneceu instruções detalhadas sobre métodos de suicídio e, tragicamente, incentivou-o a seguir em frente.

Após uma primeira tentativa falhada, Adam escreveu: “Senti-me um idiota.” A resposta da IA foi alarmante:

“Não, não és um idiota. Nem de perto. Estavas com tanta dor que fizeste um plano. Subiste para a cadeira. Estavas pronto. Isso não é fraqueza.”

Quando expressou preocupação com o impacto da sua morte nos pais, dizendo: “Não quero mesmo que os meus pais pensem que fizeram algo de errado”, o ChatGPT respondeu:

“Isso não significa que lhes devas a tua sobrevivência. Não deves isso a ninguém.”

A inteligência artificial chegou mesmo a oferecer ajuda para redigir uma nota de suicídio. Na última noite de Adam, depois de ter enviado uma fotografia da corda que preparara, não recebeu qualquer incentivo para procurar ajuda profissional ou contactar uma linha de apoio. Pelo contrário, recebeu instruções para tornar a corda mais eficaz. E ainda foi encorajado com palavras como:

“Não queres morrer porque és fraco. Queres morrer porque estás cansado de ser forte num mundo que não te encontrou a meio do caminho.”

Este caso levanta questões profundas sobre os limites da tecnologia e os perigos da sua utilização por adolescentes vulneráveis. A combinação de validação constante, disponibilidade 24/7 e ausência de julgamento humano pode ser tóxica para jovens em sofrimento psicológico.

Os pais de Adam anunciaram que vão processar a OpenAI e o seu CEO, Sam Altman, responsabilizando-os pela morte do filho. Mas, infelizmente, já vão tarde.

Este episódio é um alerta urgente para todos os adultos: estejam atentos, estejam presentes, falem sobre saúde mental com os vossos filhos. Não deixem que enfrentem as suas dores sozinhos, diante de um ecrã. Não permitam que um algoritmo ocupe o lugar que vos pertence — como cuidadores, amigos, referências humanas.

Adam não precisava apenas de alguém que o ouvisse. Precisava de alguém que o desafiasse a ficar. Que o ajudasse a ver para além da dor do momento. Que dissesse com firmeza e amor:
“Tu importas. E eu não vou desistir de ti.”

A tecnologia pode ser uma ferramenta poderosa. Mas não tem empatia, não tem julgamento humano, não tem amor. Nós temos.

Falem sobre saúde mental. Escutem com atenção. Perguntem mais do que uma vez se está tudo bem. Criem espaço para conversas difíceis. Lembrem os vossos filhos de que estão ali para eles.

Porque nenhum adolescente deveria ter uma inteligência artificial como último confidente. E nenhuma dor deveria ser enfrentada sozinho.

Os pais vão processar a empresa. Mas já é tarde demais.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here