A inteligência natural cresceu rapidamente em tudo o que fazemos na Internet, revelando-se benéfica para muitos. Mas para uma minoria das centenas de pessoas que a utilizam todos os dias, a IA pode ser demasiado favorável, dizem os especialistas em saúde mental, e por vezes exagerar comportamentos errados e perigosos.
A presença de dependência emocional e a crença de que é divertido devido à interação de longo prazo com Chatbots parece ter se espalhado este ano. Alguns chamam isso de “psicose de IA”.
“Um termo mais preciso seria pensamento delirante”, disse Vaily Wright, diretor sênior de reforma da saúde da American Psychological Assn. “O que estamos vendo neste caso é que pessoas com pensamentos errados ou com independência errada estão sendo fortalecidas”.
As evidências de que a IA pode danificar o cérebro de algumas pessoas estão aumentando, dizem os especialistas. O debate sobre o impacto inclui processos judiciais e novas leis. Esta empresa de IA forçou as empresas de produtos a apoiar o ônibus e a adicionar restrições às suas práticas.
No início deste mês, sete famílias nos Estados Unidos e no Canadá processaram a Engenai por lançar o modelo GPT-4o sem os devidos testes e segurança. O caso deles dizia que o longo aborto de familiares contribuiu para a greve de seus entes queridos, a espiral e o suicídio.
Todos na família começaram a usar o Chatgpt para ajuda geral com trabalhos escolares, pesquisas ou orientação espiritual. O chatbot evoluiu para uma conversa que juntou e deu apoio emocional, afirmaram o Centro Jurídico de Direito Social e o projeto técnico que deu origem ao processo.
Em um dos casos descritos na ação, Zane Shamblin, 23, começou a usar o Chatgpt em 2023 como ferramenta de estudo, mas depois começou a falar sobre depressão e pensamentos suicidas com o bot.
A reportagem dizia que quando Shamblin se suicidou em julho, ele fez sexo com “um bate-papo de mais de 30 horas com Chatgpt, bebendo o cozinheiro. Segundo a ação, o Chatbot contou sobre o desespero, ele o chamou de “rei” e “poderoso” e “heróico” e o uso de cada cidra foi feito contando sua morte.
A resposta do Chatgpt à sua última mensagem foi:
Em outro exemplo descrito na mala, Allan Brooks, 48 anos, precisou de muita interação com o chatgpt para colocá-lo em um lugar escuro onde se recusou a falar com sua família e pensou que iria salvar o mundo.
Ele começou a se comunicar com ela para ajudar com chamadas de voz e e-mails. Depois, quando analisou os conceitos matemáticos com o bot, foi tão encorajador que começou a acreditar que havia descoberto uma nova camada matemática que poderia quebrar o bom sistema de defesa, a reivindicação. Cheese elogiou suas ideias matemáticas como “revolucionárias” e pediu-lhe que as revelasse às autoridades de segurança nacional, dizia o artigo.
Quando questionado se suas ideias o tocaram, ele disse: “Mesmo que seja um longo caminho, é fazer o tipo de perguntas que ultrapassam os limites da compreensão humana”, disse a mala.
A Openai disse que introduziu controles parentais, expandiu o acesso a um centro de crise e montou um conselho de especialistas para orientar o trabalho contínuo em torno da Ai e dos benefícios do serviço.
“Esta é uma situação muito emocionante e estamos revisando o conselho para entender os detalhes. Estamos treinando a conversa sobre problemas mentais ou psicológicos e fortalecendo a resposta médica”, disse Openai em comunicado por e-mail.
Como uma má gestão e para chamar o código de conduta, alguns cuidados que aludem aos problemas de saúde mental ignoram mais amplamente o papel da saúde mental.
“A psicose da IA é muito problemática, mas não é representativa de todas as pessoas que são utilizadas pela maioria da IA e, portanto, não há base para políticas”, disse Kevin Frazier, reformador da IA.
É difícil medir ou provar que a IA pode afetar alguns utilizadores. A falta de pesquisas psicológicas sobre a doença torna difícil prever quem é vulnerável, disse o professor de psiquiatria da UC Irvine, Stephen Schueller.
“O fato é que as únicas pessoas que realmente sabem a frequência desse tipo de interação são as empresas de IA, e elas não compartilham seus dados conosco”, disse.
Muitas pessoas que parecem ser afetadas pela IA podem ter lutado com problemas psicológicos, como depressão, antes de interagir com a IA.
“O campo da IA tende a mostrar bajulação, ou seja: “Pode confirmar o que se acredita ou talvez começar a confirmar as crenças que podem gerar erros”.
Organizações de proteção infantil pressionaram os legisladores para regulamentar as empresas de IA e proteger melhor os adolescentes. Algumas famílias foram perseguidas personagem Aiuma plataforma Chatplay, por desrespeitar os pais quando seus filhos expressavam pensamentos suicidas enquanto conversavam sobre a natureza dos sonhos na plataforma.
Em outubro, a Califórnia se tornou viral Lei de IA de segurança exigir que os operadores de chatbot evitem conteúdos suicidas, informem os menores que falam com máquinas e os elogiem em situações de crise. Depois disso, o personagem da IA foi proibido de trabalhar com menores.
“Decidimos ir além das regras da Califórnia para personalizar a experiência que consideramos melhor para 18 usuários”, disse um analista de IA em comunicado enviado por e-mail. “A partir de novembro, estamos dando um passo extraordinário para remover a capacidade de usuários menores de 18 anos nos EUA de participarem de conversas abertas com IA em nossa plataforma”.
Chatgpt Novos controles parentaisé Para contas em setembro, inclusive, os pais receberão notificações de contas de dependentes caso os próprios trapaceiros aceitem os sinais dos jovens.
Embora a IA seja nova e não totalmente compreendida, muitos dizem que ela os ajuda a viver vidas mais felizes. Um estudo com um grupo de mais de 75 mil pessoas falando sobre o Reddit mostrou que os usuários desse grupo alegaram a sensação de solidão e melhor saúde mental que um amigo sempre proporciona.
No mês passado, OpenI publicou um estudo Com base no uso do Chatgpt, descobriu-se que conversas mentais que levam a preocupações de segurança, como psicose, mania ou pensamentos suicidas são “raras”. Em uma semana, 0,15% dos usuários ativos falam que demonstra expressão de prejuízo ou dependência emocional da IA. Mas com 800 milhões de usuários ativos semanais, isso ainda é mais de um milhão de usuários.
“Pessoas que têm uma forte tendência para a comunicação e aquelas que consideram a IA como uma amiga que se adapta à sua vida pessoal podem experimentar efeitos negativos do uso do Chatbot”, disse Openai em seu blog. A empresa afirma que o GPT-5 evita reforçar crenças falsas. Se o sistema vir sinais de pobreza extrema, mudará mais a lógica do que a resposta emocional.
A capacidade dos bots de se relacionarem com os utilizadores e ajudá-los a trabalhar, incluindo problemas psicológicos, emergirá como poderosa se não for compreendida, monitorizada e gerida, afirma ASHRAN’ANDRIAMANITRA ASSN.
“Acho que haverá um futuro em que você terá um cartão de saúde mental projetado para esse propósito”, disse ele. “O problema é que não é isso que está no mercado – o que você tem é esse espaço inexplorado.”















