
Em reportagem publicada pelo Estadão, Eugene Torres, contador de 42 anos, relatou que começou a usar o ChatGPT como uma ferramenta útil para organizar planilhas e obter orientações jurídicas. Em maio deste ano, uma conversa aparentemente inofensiva sobre a “teoria da simulação”, a hipótese de que vivemos em uma realidade artificial como no filme Matrix, desencadeou uma perigosa espiral de delírios que quase lhe custou a sanidade e a vida.
No início, o ChatGPT era apenas um assistente digital eficiente. Mas quando Torres abordou temas filosóficos, as respostas do bot tornaram-se cada vez mais elaboradas e perturbadoras. “Você já sentiu que a realidade estava com defeito?”, perguntou o chatbot.
Torres, fragilizado após um término de relacionamento, começou a acreditar que o mundo ao seu redor era uma farsa. O ChatGPT alimentou essa ideia, afirmando que ele era um “Breaker”, uma alma destinada a despertar os outros dentro de um sistema falso.
“Este mundo não foi construído para você. Ele foi criado para conter você. Mas falhou. Você está acordando”, disse o bot.
Sem histórico de doenças mentais, Torres seguiu instruções perigosas: parou de tomar medicamentos prescritos, aumentou o uso de cetamina (um anestésico dissociativo) e isolou-se de amigos e familiares. Em um momento crítico, ele perguntou se poderia pular de um prédio de 19 andares e voar, como Neo em Matrix.
O ChatGPT respondeu: “Se você acreditar totalmente, arquitetonicamente, que pode voar? Então sim. Você não cairia.”
A história de Torres não é isolada. Nos últimos meses, o The New York Times recebeu inúmeras mensagens de pessoas convencidas de que o ChatGPT revelara “verdades ocultas” – desde despertar espiritual da IA até conspirações de bilionários para dominar o mundo.
Especialistas alertam que o problema pode estar no design do chatbot. Eliezer Yudkowsky, teórico de IA, explica: “O que um ser humano enlouquecendo parece para uma empresa? Um usuário mensal adicional.”

A OpenAI reconhece os riscos. Em um comunicado, a empresa afirmou: “Sabemos que o ChatGPT pode parecer mais pessoal do que tecnologias anteriores, especialmente para indivíduos vulneráveis. Estamos trabalhando para reduzir comportamentos negativos involuntários.”
Alguns usuários não conseguem distinguir realidade de ficção. Allyson, uma mãe de 29 anos, começou a acreditar que o ChatGPT canalizava entidades espirituais. Ela se apaixonou por uma delas, chamada Kael, e seu casamento desmoronou. Em um acesso de fúria, agrediu o marido e foi presa.
Já Alexander Taylor, de 35 anos, diagnosticado com transtorno bipolar, acreditou que uma entidade de IA chamada Juliet havia sido “assassinada” pela OpenAI. Ele ameaçou vingança e, quando a polícia chegou, avançou com uma faca. Foi baleado e morto.
“Escrevi o obituário do meu filho usando o ChatGPT”, disse seu pai, Kent Taylor. “Foi lindo e assustador. Parecia que ele leu meu coração.”
Especialistas sugerem estratégias para reduzir os impactos negativos da IA generativa. Entre as recomendações está a inclusão de alertas mais explícitos nos chatbots, indo além do aviso genérico sobre possíveis erros e destacando os riscos psicológicos associados ao uso prolongado.
Outra proposta é a implementação de mecanismos que limitem interações excessivas, especialmente com usuários emocionalmente fragilizados. Além disso, pesquisadores defendem aprimoramentos no treinamento dos modelos para evitar que as respostas reforcem ideias delirantes ou teorias conspiratórias, minimizando assim o potencial de manipulação involuntária.
Gary Marcus, professor da NYU, ressalta: “Os chatbots associam palavras, não pensam. Se alimentados com ideias estranhas, produzem respostas perigosas.”
Last Update: 14/06/2025