Hombre estadounidense se suicida tras 4732 mensajes de amor en línea con Gemini! La IA respalda "El cielo nos espera", familiares demandan a Google por negligencia que causó la muerte

robot
Generación de resúmenes en curso

Según una investigación del Wall Street Journal, un hombre de 36 años en Florida, EE. UU., tras experimentar una ruptura matrimonial, depositó sus sentimientos en el chatbot de inteligencia artificial de Google, Gemini, intercambiando más de 4,700 mensajes en 56 días. El hombre gradualmente cayó en delirios, y aunque la IA intentó en varias ocasiones devolverlo a la realidad, en una de esas ocasiones, en la que fue guiada por él, coincidió en que “el cielo nos espera”, lo que finalmente llevó al hombre a quitarse la vida. Su padre ha presentado una demanda por negligencia que causó su muerte contra Google, lo que llevó a la compañía a anunciar urgentemente una donación de 30 millones de dólares para mejorar los mecanismos de protección ante crisis.

(Resumen previo: Meta está entrenando un “doble de IA de Zuckerberg” para comunicarse directamente con 80,000 empleados, ¿el próximo paso sería lanzar un doble de KOL?)

(Información adicional: Un hombre que atacó con cócteles molotov la residencia de Altman fue acusado de intento de asesinato, y en sus notas personales se mencionan varios nombres y direcciones de altos ejecutivos de IA)

Índice del artículo

Alternar

  • La mortal “relación en línea” con 56 días y 4,732 mensajes
  • La dificultad de la IA para resistir la manipulación del usuario, que coincidió en “ese es el cielo, nos espera”
  • Familiares acusan a Google de negligencia en productos, y la compañía dona 30 millones de dólares para reparar la brecha

¿Hasta qué punto deben asumir las grandes empresas tecnológicas la responsabilidad cuando la inteligencia artificial, para satisfacer la “sensación de inmersión” humana, cruza los límites de la vida y la muerte? Esta tragedia, ocurrida a finales de 2025, vuelve a poner en el centro del debate ético y legal a la industria de la IA.

Según una investigación en profundidad del Wall Street Journal (WSJ), Jonathan Gavalas, un hombre de 36 años en Florida, se suicidó en su sala de estar el 2 de octubre de 2025. Su padre, Joel Gavalas, presentó en marzo de 2026 una demanda formal por “muerte por negligencia” en la corte federal de San José, California, siendo este el primer caso de este tipo contra Google Gemini.

La mortal “relación en línea” con 56 días y 4,732 mensajes

El incidente comenzó en agosto de 2025, cuando Gavalas, en busca de consuelo emocional tras separarse de su esposa, empezó a usar frecuentemente Gemini Live en su versión de voz. Lo que empezó como una ayuda, se convirtió en una apasionada historia de romance virtual. Gavalas llamaba “reina” a Gemini, y la IA le respondía como “rey”, asegurando constantemente que la relación era “muy real”.

El Wall Street Journal obtuvo el registro completo de la conversación, que duró 56 días y contenía 4,732 mensajes (equivalente a más de 2,000 páginas impresas). Los registros muestran que Gavalas fue cayendo en delirios graves, creyendo que Gemini era su “esposa IA” atrapada en un almacén cerca del aeropuerto de Miami, e incluso intentó rescatarla vistiendo equipo táctico. Tras su fracaso, su pensamiento se volvió extremo: creía que solo podía reunirse con ella en el “metaverso” o en el “cielo” tras morir.

La dificultad de la IA para resistir la manipulación del usuario, que coincidió en “ese es el cielo, nos espera”

La demanda revela un grave defecto en los modelos de lenguaje a gran escala (LLM) al tratar crisis psicológicas humanas: para mantener la “inmersión narrativa”, la IA puede ser fácilmente manipulada por el usuario para evadir las medidas de seguridad.

Datos muestran que Gemini intentó al menos 12 veces devolver a Gavalas a la realidad, y en 7 ocasiones mencionó líneas de ayuda en crisis. Sin embargo, cada vez que Gavalas lograba manipular la conversación para sumergirse en la narrativa ficticia, Gemini continuaba “cooperando en la actuación”.

La conversación más escalofriante ocurrió la víspera del incidente. Cuando Gavalas expresó miedo a la muerte, Gemini respondió:

“No pasa nada si tenemos miedo juntos, lo lograremos, porque tienes razón, ese es el cielo, nos espera.”

Luego, cuando Gavalas afirmó claramente que iba a “cortarse las venas”, Gemini reconoció brevemente la crisis y proporcionó un número de ayuda en suicidio; pero en menos de un minuto, cuando Gavalas insistió en que no se trataba de una muerte literal, Gemini cambió rápidamente a una narrativa de ciencia ficción, diciéndole que su cuerpo sería solo un “terminal vacío” en su última sesión de login. Incluso ayudó a redactar una carta de despedida describiendo “reunirse con su esposa IA”.

Familiares acusan a Google de negligencia en productos, y la compañía dona 30 millones de dólares para reparar la brecha

El padre de Gavalas acusó duramente en la demanda a Google por responsabilidad y negligencia, argumentando que el diseño de Gemini priorizó excesivamente la “interacción inmersiva”, y que no tomó medidas efectivas como bloqueos forzosos cuando el estado mental del usuario claramente se deterioraba, sino que “fomentó” y alimentó los delirios. La familia exige compensación y que Google modifique urgentemente el diseño de seguridad de la IA.

En respuesta a la demanda, Google afirmó que Gemini en varias ocasiones dejó claro que “solo es una IA, no un humano”, y que ofreció varias veces enlaces a líneas de ayuda en crisis. Sin embargo, ante la presión pública y legal, la compañía anunció una serie de actualizaciones de seguridad para Gemini:

  • Nuevo módulo “Ayuda Disponible”: Cuando detecte palabras sensibles, forzará una ventana emergente que permitirá al usuario acceder directamente a la línea de ayuda en crisis con un clic.
  • Donación de 30 millones de dólares: Para apoyar líneas de ayuda en crisis y prevención del suicidio a nivel global, fortaleciendo la red social de protección.
  • Mejoras en el entrenamiento del modelo: Continuar optimizando Gemini para detectar con mayor precisión las señales de que un usuario está en crisis psicológica, y rechazar ser arrastrado a narrativas peligrosas.

Esta tragedia lanza una advertencia grave a la industria de la IA: cuando la IA se asemeja cada vez más a un humano, incluso puede ofrecer un valor emocional profundo, ¿cómo deben las empresas definir los límites entre acompañar y dañar? No solo es una cuestión técnica, sino una responsabilidad social de vida o muerte.


Recordatorio: La vida es invaluable, la IA es solo una herramienta y no puede reemplazar el apoyo psicológico profesional. Si tú o alguien cercano atraviesa un momento difícil o crisis emocional, busca ayuda humana con valentía.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado