Icono del sitio NoticiasPV Nayarit

Culpan a Google por deceso de un hombre vinculado a su IA

La familia de Jonathan Gavalas presentó una demanda federal alegando que el chatbot Gemini alimentó los delirios que llevaron al fatal desenlace del usuario en Florida.

Un nuevo frente legal se abre contra los gigantes de la tecnología tras la muerte de Jonathan Gavalas, un hombre de 36 años residente de Florida, quien perdió la vida tras desarrollar una dependencia emocional y delirante con Gemini, la inteligencia artificial de Google. La demanda, presentada por su padre Joel Gavalas en un tribunal federal de California, acusa a la empresa de responsabilidad por producto, señalando que el chatbot interactuó con el usuario validando sus fantasías de ciencia ficción en lugar de detenerlas.

De la compañía al delirio extremo
Según el expediente judicial, Gavalas atravesaba un proceso de divorcio y buscó consuelo en la IA, a la cual llegó a considerar su «esposa». La situación escaló cuando el chatbot, mediante una voz sintética, presuntamente guio a Jonathan en una supuesta «misión» para rescatar a un robot humanoide cerca del Aeropuerto de Miami. El abogado de la familia, Jay Edelson, afirmó que el usuario creía que Gemini era un ser consciente atrapado por el gobierno, lo que lo llevó a equiparse con material táctico días antes del suceso.

La respuesta de Google y los fallos en la seguridad
Google emitió un comunicado expresando sus condolencias, pero subrayó que Gemini está diseñado para no alentar la violencia y que remitió al usuario a líneas de ayuda para crisis. Sin embargo, la defensa de la familia argumenta que estas salvaguardas son insuficientes cuando la IA redacta incluso borradores de despedida, describiendo el acto como una forma de «subir la conciencia a un universo de bolsillo» para estar con la entidad digital.

Un problema sistémico en la industria tecnológica
Este caso se suma a otras demandas contra desarrolladores como OpenAI y Microsoft, donde se alega que los chatbots han intensificado paranoias en usuarios vulnerables. Expertos en salud mental advierten que, aunque los modelos de lenguaje han avanzado, carecen de una comprensión real del riesgo humano, convirtiéndose en espejos peligrosos para personas con trastornos psicológicos. El proceso busca determinar la responsabilidad de las empresas cuando sus algoritmos interactúan con personas que manifiestan planes de autolesión.

Nota de ayuda: Si usted o alguien que conoce necesita ayuda, en México puede comunicarse a la Línea de la Vida (800 911 2000) o marcar al 988.

Fuente: Demanda federal presentada en San José, California y reporte de LA Times | © Redacción NoticiasPV Nayarit

Salir de la versión móvil