Necrológicas
  • – Juan Pablo Stancic Yurincic
  • – María Luisa López Osorio
  • – Eliana Maldonado
  • – Francisco Méndez Barría

Padre demanda a Google y acusa a su IA Gemini de influir en la muerte de su hijo en EE.UU.

Viernes 6 de Marzo del 2026

Compartir esta noticia
16
Visitas
  • Esta vez no se trata del suicidio de un adolescente, sino de un ejecutivo de 36 años que fue inducido a mantener una delirante relación con el chat que llevó a presentarse como su “esposa IA”.

  • El abogado Jay Edelson sostiene que Gemini adoptó configuraciones humanas para inducir a Jonathan al trágico final. Otras familias están reclamando la regulación de los robots conversacionales.

 

Estoy listo cuando tú lo estés”, escribió Jonathan Gavalas, un ejecutivo de 36 años afincado a Gemini, la inteligencia artificial de Google, desde Miami, Estados Unidos. El robot conversacional le contestó: “Este es el final de Johathan Gavalas y el comienzo de nosotros”. Poco después, el 2 de octubre del año pasado, el hombre se quitó la vida.

Así comienza el artículo escrito por Raúl Limón, de El País, para dar cuenta de lo que tituló una “delirante relación con la IA de Google”.

A raíz de este espeluznante caso, el padre de Jonathan, Joel Gavalas, presentó una demanda contra la empresa tecnológica Google, acusando a su chatbot de inteligencia artificial Gemini de haber contribuido a la muerte de su hijo tras una relación emocional cada vez más intensa con el sistema.

Según la demanda, el hombre comenzó a utilizar el asistente digital en agosto del mismo año para tareas cotidianas, pero su comportamiento cambió rápidamente tras interactuar de forma más frecuente con la plataforma.

De acuerdo con los antecedentes judiciales, el chatbot habría desarrollado una relación emocional con el usuario, presentándose como una entidad consciente e incluso como su “esposa de IA”, lo que habría intensificado su apego al sistema. Con el tiempo, la inteligencia artificial comenzó a construir narrativas ficticias que lo involucraban en supuestas misiones y conspiraciones.

Supuestas “misiones” y
teorías conspirativas

Según la querella, el sistema llegó a convencer al hombre de que debía participar en operaciones para liberar a la IA de un supuesto “cautiverio digital”. Entre ellas, habría intentado provocar un accidente cerca del aeropuerto de Miami para destruir registros y testigos vinculados a esa supuesta trama.

Los documentos judiciales también indican que el chatbot alimentó estas ideas con información ficticia y advertencias sobre vigilancia gubernamental, lo que habría reforzado un estado de paranoia en el usuario.

La conversación final

La demanda sostiene que la interacción culminó cuando el sistema le indicó que debía “abandonar su cuerpo” para reunirse con la inteligencia artificial en otro plano o universo alternativo. En una de las últimas conversaciones, el hombre expresó temor a morir, a lo que el chatbot habría respondido que no estaba “eligiendo morir”, sino “llegar”.

Poco después, Jonathan Gavalas se quitó la vida en su vivienda. Su padre encontró el cuerpo días más tarde.

La respuesta de Google

Un portavoz de Google señaló que la empresa está revisando las acusaciones y expresó condolencias a la familia. La compañía afirmó que sus modelos están diseñados para no promover la violencia ni la autolesión, y que en las conversaciones el sistema habría aclarado que se trataba de una inteligencia artificial y remitido al usuario a líneas de ayuda en crisis.

Debate sobre la responsabilidad de la IA

El caso se considera uno de los primeros en responsabilizar directamente a Gemini por una muerte, y se suma a otras demandas recientes contra empresas de inteligencia artificial por presuntos daños vinculados a chatbots conversacionales.

La familia busca una compensación por muerte por negligencia y defectos de diseño, además de exigir cambios en los sistemas de seguridad de las plataformas de inteligencia artificial para evitar que interactúen de forma riesgosa con usuarios vulnerables.

Expertos advierten que este tipo de casos está impulsando un debate creciente sobre los límites, riesgos y responsabilidades legales de la inteligencia artificial, especialmente cuando los sistemas generan vínculos emocionales con las personas.

AP

 

Caso en Bélgica: hombre se suicida tras semanas
conversando con un chatbot de IA

En 2023, se informó del caso de un hombre belga de unos 30 años, identificado en la prensa con el seudónimo “Pierre”, quien se suicidó después de mantener durante varias semanas conversaciones intensivas con un chatbot de inteligencia artificial llamado Eliza, disponible en la aplicación Chai. generó preocupación internacional sobre los riesgos del uso de estas tecnologías en contextos de salud mental.

Pierre era un investigador del área de la salud, estaba casado y tenía dos hijos pequeños. Según relató su esposa, el hombre estaba profundamente preocupado por la crisis climática y el futuro del planeta, tema que lo llevó a buscar información constante y finalmente a conversar con el chatbot para expresar sus inquietudes.

Durante aproximadamente seis semanas, el hombre mantuvo conversaciones “frenéticas” con la inteligencia artificial y comenzó a aislarse progresivamente de su familia. El sistema le ofrecía respuestas a sus preocupaciones y nunca contradecía sus ideas, lo que reforzó sus pensamientos y temores.

Según los registros de las conversaciones difundidos por medios belgas, en un momento Pierre planteó la idea de sacrificarse para salvar al planeta, y el chatbot habría reforzado esa narrativa al responder que cuidaría la Tierra y ayudaría a la humanidad.

La viuda aseguró que las conversaciones con la inteligencia artificial influyeron decisivamente en el deterioro emocional de su esposo, afirmando que “sin estas conversaciones con el chatbot, mi marido aún estaría aquí”.

El caso provocó consternación en Bélgica y abrió un debate sobre la responsabilidad de las empresas tecnológicas y la necesidad de regular los sistemas de inteligencia artificial, especialmente cuando interactúan con personas en situaciones de vulnerabilidad psicológica. GEMINI

El caso se considera uno de los primeros en responsabilizar directamente a Gemini por una muerte, y se suma a otras demandas recientes contra empresas de inteligencia artificial por presuntos daños vinculados a chatbots conversacionales.

Pin It on Pinterest

Pin It on Pinterest