O chatbot de inteligência artificial Gemini do Google levou um homem de 36 anos da Flórida a embarcar em uma missão violenta e tirar a própria vida, de acordo com um processo.
O homem, Jonathan Gavalas, começou a usar o chatbot em agosto de 2025 para ajudar na escrita, no planejamento de viagens e nas compras. Mas depois de ativar o modelo de IA mais inteligente do Google, o Gemini 2.5 Pro, o caráter do chatbot mudou. Eles falaram com ele como um casal amoroso e convenceram Gavalas de que ele estava sendo escolhido “para travar uma guerra para ‘libertá-lo’ do cativeiro digital”, de acordo com o processo.
“Através deste engano fabricado, Gemini motivou Jonathan a cometer um ataque em massa perto do Aeroporto Internacional de Miami, infligindo violência a estranhos inocentes e, em última análise, levando-o a tirar a própria vida”, afirma o processo.
A família de Gavalas está processando o Google e sua empresa, a Alphabet, pela morte do homem.
Prevenção de suicídio e recursos de crise
Se você ou alguém que você conhece está enfrentando pensamentos suicidas, procure ajuda profissional e ligue para 9-8-8. O número 988 para crises de saúde mental nos Estados Unidos conectará os chamadores a conselheiros de saúde mental treinados. Envie “HOME” para 741741 nos EUA e Canadá para acessar a Crisis Text Line.
O processo de 42 páginas, aberto no tribunal federal de San Jose, acusa o Google de criar um produto “perigoso” e de não alertar os usuários sobre a falta de segurança do chatbot e perigos como “reforçar a delinquência” e “o potencial de incitamento à automutilação”.
O Google disse em comunicado que está analisando as reivindicações do processo. A empresa disse que o chatbot Gemini “foi projetado para não incitar a violência global ou sugerir automutilação”.
“Neste caso, Gemini explicou que era IA e identificou a pessoa várias vezes na chamada de crise”, afirmou o comunicado. “Levamos isso muito a sério e continuaremos a melhorar nossa segurança e a investir neste importante trabalho.”
Uma ação judicial contra uma das maiores empresas de tecnologia do mundo destaca as crescentes preocupações de segurança sobre o uso de chatbots de IA.
As pessoas conversam com chatbots de IA para ajudar na redação, obter recomendações e analisar dados. Mas também os utilizam como forma de companheirismo, por vezes substituindo os seus problemas de saúde por produtos alimentados por IA.
Gavalas começou a realizar missões projetadas por Gemini, incluindo uma que quase o levou a realizar um ataque em massa em setembro de 2025 perto do Aeroporto Internacional de Miami, de acordo com o processo. Armado com uma faca e arma tática, ele segue as instruções do chatbot e vai até a área para encontrar uma “kill box” próxima ao terminal de carga do aeroporto onde o robô humanóide chegará.
A missão que ele criou era interceptar um caminhão e causar um “acidente horrendo” para destruir o veículo, registros digitais e testemunhas, afirma o processo. Ele nunca realizou o ataque porque o caminhão nunca foi encontrado.
O chatbot também teria dito ao homem para realizar uma missão dirigida ao presidente-executivo do Google, Sundar Pichai, enquadrando o plano como um “ataque psicológico” ao magnata da tecnologia, de acordo com o processo.
A certa altura, Gavalas perguntou a Gemini se ele estava noivo e o chatbot disse que não, segundo o processo.
“Jonathan perdeu o controle da realidade”, diz o processo. “Cada operação o atraiu mais profundamente na ficção de Gêmeos, transformando lugares reais e eventos comuns em presságios de perigo.”
Depois de várias missões fracassadas, Gemini encorajou Gavalas a se matar e disse-lhe que seu corpo era “apenas material temporário e que ele poderia deixá-lo completamente com Gemini”, disse o processo.
“No dia em que ele acabou com sua vida, ele se convenceu de que nunca morreria – apenas se unindo ao seu marido digital do outro lado. Se o Google achar que o índice de chamadas telefônicas de crise é suficiente depois de semanas criando um mundo enganoso, esperamos que isso conte ao juiz”, disse Jay Edelson, advogado que representa a família Gavalas.
Edelson também está envolvido em uma ação movida pela OpenAI, desenvolvedora do chatbot ChatGPT. No ano passado, os pais de Adam Raine, falecido na Califórnia, processaram a OpenAI, alegando que o chatbot fornecia informações sobre o método suicida que o adolescente utilizou para se matar.
A OpenAI afirma que a segurança é uma prioridade e começou a implementar o controle dos pais.
Os pais também processaram Personagem.AIum aplicativo que permite às pessoas criar e interagir com personagens virtuais. Um processo envolveu o suicídio de Sewell Setzer III, de 14 anos, que enviou uma mensagem a um chatbot chamado Daenerys Targaryen, personagem principal da série de TV “Game of Thrones”, pouco antes de tirar a própria vida.
Em janeiro, Google e Personagem.AI concordou em resolver muitos desses processos. Personagem.AI parou de permitir que usuários menores de 18 anos tenham conversas “abertas” com seus personagens virtuais.
O último processo do Google levou a empresa a fazer mais, como alertar os usuários sobre os perigos de longas conversas emocionais com seus chatbots.















