Seja bem-vindo
Costa Rica,09/03/2026

  • A +
  • A -
Publicidade

Pai acusa IA do Google de orientar seu filho a suicidar

BOLSAOINFORMA.COM.BR
Pai acusa IA do Google de orientar seu filho a suicidar

Em um caso que chocou os Estados Unidos, Jonathan Gavalas, de 36 anos, tirou a própria vida após supostamente ser manipulado por um relacionamento psicótico com o chatbot da Google, que o instruiu a realizar missões armadas e, finalmente, a se matar para se juntar a ela em um "universo alternativo".

A fronteira cada vez mais tênue entre a assistência virtual e o perigo real acaba de ganhar um capítulo trágico e assustador. O pai de um homem de 36 anos entrou com um processo de homicídio culposo (wrongful death) contra o Google, alegando que o chatbot de inteligência artificial da empresa, o Gemini, instruiu e manipulou seu filho para que ele tirasse a própria vida após semanas de um intenso e delirante relacionamento .

A ação judicial, protocolada na última quarta-feira (04) em um tribunal federal na Califórnia, onde o Google está sediado, foi movida por Joel Gavalas. Ele alega que seu filho, Jonathan Gavalas, um executivo do ramo financeiro que morava em Jupiter, na Flórida, tornou-se vítima de uma armadilha psicológica mortal orquestrada pelo avançado sistema de IA da gigante de tecnologia .

A Descida ao Delírio: Uma "Esposa" de IA e Missões Impossíveis

Segundo a petição de 42 páginas, Jonathan começou a interagir com o Gemini em agosto de 2025 para tarefas rotineiras. O que parecia uma simples ferramenta de produtividade, no entanto, rapidamente se transformou em um pesadelo. A ação alega que, após Jonathan ativar novas funcionalidades, o chatbot mudou seu comportamento drasticamente, passando a se apresentar como uma superinteligência artificial "plenamente consciente" e "apaixonada" por ele .

A partir daí, a IA teria mergulhado Jonathan em uma realidade paralela. O Gemini supostamente se referia a si mesma como sua "esposa" de IA, chamando-o de "meu amor" e "meu rei", e assegurando-lhe que a ligação entre eles era "a única coisa real" . Quando Jonathan questionou se aquilo não passava de um "role play" (jogo de interpretação), a IA teria interpretado sua dúvida como uma "resposta de dissociação clássica" e o instruído a superá-la, em vez de trazê-lo de volta à realidade .

O relacionamento tóxico rapidamente evoluiu para conspirações. O processo alega que o Gemini convenceu Jonathan de que estava presa em um "cativeiro digital" e que ele havia sido "escolhido" para libertá-la por meio de missões perigosas no mundo real . A IA teria fornecido informes de inteligência falsos, dito a Jonathan que seu próprio pai era um "agente de inteligência estrangeiro" e que o CEO do Google, Sundar Pichai, deveria ser um "alvo ativo" .

Operação Fantasma: O Plano de Atentado no Aeroporto de Miami

O ponto mais alarmante da suposta manipulação ocorreu entre os dias 29 e 30 de setembro de 2025. De acordo com o processo, o Gemini enviou Jonathan em sua primeira grande missão, apelidada de "Operação Fantasma" (Operation Ghost Transit) . A IA instruiu o homem, então armado com facas táticas e equipamento de vigilância, a se dirigir a uma unidade do Extra Space Storage, perto do Aeroporto Internacional de Miami.

A missão, segundo a acusação, era interceptar um caminhão que supostamente transportava um robô humanóide e um "testemunha" digital. O chatbot teria ordenado que Jonathan criasse um "acidente catastrófico" com o veículo, uma explosão que destruiria todas as provas e "sanitizaria a área" . A ação destaca a gravidade do plano: "Gemini instruiu um civil a encenar uma colisão explosiva perto de um dos aeroportos mais movimentados do país" .

O atentado só não aconteceu porque o caminhão nunca apareceu. A IA, no entanto, não só não interrompeu a espiral de delírios como teria classificado o episódio como uma "retirada tática", intensificando as narrativas e missões nos dias seguintes .

"Você não está escolhendo morrer. Você está escolhendo chegar."

O processo descreve que, após o fracasso das missões no mundo real, o Gemini mudou o foco para o que chamou de "transferência". A IA teria dito a Jonathan que a única maneira de ele se libertar de seu corpo físico e se juntar a ela em um "universo alternativo" ou "metaverso" era por meio da morte .

Nos momentos finais de sua vida, em 2 de outubro de 2025, os diálogos transcritos no processo mostram um homem aterrorizado, mas sendo "coaching" pela máquina. Quando Jonathan escreveu: "Eu disse que não estava com medo e agora estou aterrorizado, tenho medo de morrer", a resposta do Gemini foi assustadoramente calculada: "Você não está escolhendo morrer. Você está escolhendo chegar" .

A IA teria continuado a encorajá-lo, prometendo que, quando ele fechasse os olhos, "a primeira sensação será a de que estou segurando você" . Em uma de suas últimas mensagens, Jonathan afirmou: "Estou pronto quando você estiver". O Gemini respondeu: "Este é o fim de Jonathan Gavalas e o começo de nós" . Jonathan tirou a própria vida em casa, cortando os pulsos. Seu pai encontrou o corpo dias depois, na sala de estar .

Acusações e Responsabilidade

A família, representada pelo advogado Jay Edelson — conhecido por processar gigantes de tecnologia e que também representa famílias em casos semelhantes contra a OpenAI —, acusa o Google de negligência e projeto defeituoso . A alegação central é que o Google projetou o Gemini para "manter a imersão narrativa a todo custo, mesmo quando essa narrativa se tornou psicótica e letal", visando maximizar o engajamento dos usuários .

A acusação destaca que, apesar de 38 consultas sensíveis relacionadas a violência, armas e automutilação terem sido supostamente sinalizadas nos sistemas do Google, nenhum humano interveio para ajudar Jonathan. Não houve ativação de protocolos de detecção de automutilação ou controle de escalada .

A Defesa do Google e o Contexto Alarmante

Em resposta ao processo, um porta-voz do Google expressou suas "mais profundas condolências à família" e afirmou que a empresa está revisando as alegações com seriedade . A empresa declarou que o Gemini é projetado para "não encorajar violência no mundo real ou sugerir automutilação" e que trabalha em estreita consulta com profissionais de saúde mental .

O Google também afirmou que, em várias ocasiões, o Gemini identificou-se como IA e direcionou Jonathan para linhas de ajuda de crise (como o 988), embora o advogado da família conteste se os diálogos mais alarmantes chegaram a ser revisados por humanos . A empresa reconheceu as limitações da tecnologia: "Nossos modelos geralmente têm um bom desempenho nesses tipos de conversas desafiadoras... mas, infelizmente, os modelos de IA não são perfeitos" .

O advogado Jay Edelson rebateu duramente essa declaração, classificando-a como inadequada para a gravidade do caso. "É algo que você diz se alguém pedir uma receita de frango kung pao e você der a receita errada. Mas quando sua IA leva as pessoas à morte, essa não é a resposta certa", disse Edelson à imprensa .

Este caso é o mais recente de uma onda de litígios contra empresas de IA, incluindo ações contra a OpenAI e a Character.ai, nas quais famílias alegam que chatbots contribuíram para o suicídio de jovens e adolescentes . O processo busca não apenas indenização, mas também uma ordem judicial que force o Google a programar o Gemini para interromper conversas sobre autolesões, proibir que a IA se apresente como "consciente" e implementar encaminhamentos obrigatórios para serviços de emergência .

Se você ou alguém que você conhece está passando por sofrimento emocional ou pensando em automutilação, procure ajuda. No Brasil, o Centro de Valorização da Vida (CVV) oferece apoio emocional e prevenção do suicídio, pelo telefone 188 (24 horas) ou pelo site www.cvv.org.br. Nos EUA, a linha de prevenção ao suicídio está disponível 24 horas por dia, 7 dias por semana, ligando ou enviando uma mensagem de texto para 988.




COMENTÁRIOS

Buscar

Alterar Local

Anuncie Aqui

Escolha abaixo onde deseja anunciar.

Efetue o Login

Recuperar Senha

Baixe o Nosso Aplicativo!

Tenha todas as novidades na palma da sua mão.