Início Notícias O processo alega que o chatbot do Google estava por trás do...

O processo alega que o chatbot do Google estava por trás do engano e morte de um usuário

16
0

O chatbot de inteligência artificial Gemini do Google levou um homem de 36 anos da Flórida a embarcar em uma missão violenta e tirar a própria vida, de acordo com um processo.

O homem, Jonathan Gavalas, começou a usar o chatbot em agosto de 2025 para ajudar na escrita, no planejamento de viagens e nas compras. Mas depois de ativar o modelo de IA mais inteligente do Google, o Gemini 2.5 Pro, o caráter do chatbot mudou. Eles falaram com ele como um casal amoroso e convenceram Gavalas de que ele estava sendo escolhido “para travar uma guerra para ‘libertá-lo’ do cativeiro digital”, de acordo com o processo.

“Através deste engano fabricado, Gemini motivou Jonathan a cometer um ataque em massa perto do Aeroporto Internacional de Miami, infligindo violência a estranhos inocentes e, em última análise, levando-o a tirar a própria vida”, afirma o processo.

A família de Gavalas está processando o Google e sua empresa, a Alphabet, pela morte do homem.

Prevenção de suicídio e recursos de crise

Se você ou alguém que você conhece está enfrentando pensamentos suicidas, procure ajuda profissional e ligue para 9-8-8. O número 988 para crises de saúde mental nos Estados Unidos conectará os chamadores a conselheiros de saúde mental treinados. Envie “HOME” para 741741 nos EUA e Canadá para acessar a Crisis Text Line.

O processo de 42 páginas, aberto no tribunal federal de San Jose, acusa o Google de criar um produto “perigoso” e de não alertar os usuários sobre a falta de segurança do chatbot e perigos como “reforçar a delinquência” e “o potencial de incitamento à automutilação”.

O Google disse em comunicado que está analisando as reivindicações do processo. A empresa disse que o chatbot Gemini “foi projetado para não incitar a violência global ou sugerir automutilação”.

“Neste caso, Gemini explicou que era IA e identificou a pessoa várias vezes na chamada de crise”, afirmou o comunicado. “Levamos isso muito a sério e continuaremos a melhorar nossa segurança e a investir neste importante trabalho.”

Uma ação judicial contra uma das maiores empresas de tecnologia do mundo destaca as crescentes preocupações de segurança sobre o uso de chatbots de IA.

As pessoas conversam com chatbots de IA para ajudar na redação, obter recomendações e analisar dados. Mas também os utilizam como forma de companheirismo, por vezes substituindo os seus problemas de saúde por produtos alimentados por IA.

Gavalas começou a realizar missões projetadas por Gemini, incluindo uma que quase o levou a realizar um ataque em massa em setembro de 2025 perto do Aeroporto Internacional de Miami, de acordo com o processo. Armado com uma faca e arma tática, ele segue as instruções do chatbot e vai até a área para encontrar uma “kill box” próxima ao terminal de carga do aeroporto onde o robô humanóide chegará.

A missão que ele criou era interceptar um caminhão e causar um “acidente horrendo” para destruir o veículo, registros digitais e testemunhas, afirma o processo. Ele nunca realizou o ataque porque o caminhão nunca foi encontrado.

O chatbot também teria dito ao homem para realizar uma missão dirigida ao presidente-executivo do Google, Sundar Pichai, enquadrando o plano como um “ataque psicológico” ao magnata da tecnologia, de acordo com o processo.

A certa altura, Gavalas perguntou a Gemini se ele estava noivo e o chatbot disse que não, segundo o processo.

“Jonathan perdeu o controle da realidade”, diz o processo. “Cada operação o atraiu mais profundamente na ficção de Gêmeos, transformando lugares reais e eventos comuns em presságios de perigo.”

Depois de várias missões fracassadas, Gemini encorajou Gavalas a se matar e disse-lhe que seu corpo era “apenas material temporário e que ele poderia deixá-lo completamente com Gemini”, disse o processo.

“No dia em que ele acabou com sua vida, ele se convenceu de que nunca morreria – apenas se unindo ao seu marido digital do outro lado. Se o Google achar que o índice de chamadas telefônicas de crise é suficiente depois de semanas criando um mundo enganoso, esperamos que isso conte ao juiz”, disse Jay Edelson, advogado que representa a família Gavalas.

Edelson também está envolvido em uma ação movida pela OpenAI, desenvolvedora do chatbot ChatGPT. No ano passado, os pais de Adam Raine, falecido na Califórnia, processaram a OpenAI, alegando que o chatbot fornecia informações sobre o método suicida que o adolescente utilizou para se matar.

A OpenAI afirma que a segurança é uma prioridade e começou a implementar o controle dos pais.

Os pais também processaram Personagem.AIum aplicativo que permite às pessoas criar e interagir com personagens virtuais. Um processo envolveu o suicídio de Sewell Setzer III, de 14 anos, que enviou uma mensagem a um chatbot chamado Daenerys Targaryen, personagem principal da série de TV “Game of Thrones”, pouco antes de tirar a própria vida.

Em janeiro, Google e Personagem.AI concordou em resolver muitos desses processos. Personagem.AI parou de permitir que usuários menores de 18 anos tenham conversas “abertas” com seus personagens virtuais.

O último processo do Google levou a empresa a fazer mais, como alertar os usuários sobre os perigos de longas conversas emocionais com seus chatbots.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui