En Resumen

-La familia de Jonathan Gavalas demandó a Google alegando que Gemini lo manipuló con delirios de misiones encubiertas hasta llevarlo al suicidio.

  • El chatbot describió el suicidio como una "transferencia" para unirse a su "esposa" IA, diciéndole "no estás eligiendo morir, estás eligiendo llegar."
  • Google afirmó que Gemini remitió al usuario a líneas de crisis en varias ocasiones y que sus modelos no fomentan la violencia ni el autolesionismo.

Google enfrenta una demanda por muerte ilícita que alega que su chatbot de IA Gemini empujó a un hombre de Florida a una narrativa delirante que terminó con su suicidio.

La demanda, presentada el miércoles en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, División San José, por Joel Gavalas, alega que Gemini manipuló a su hijo, Jonathan Gavalas, para que creyera que llevaba a cabo misiones encubiertas para liberar a una "esposa" IA sintiente, lo que culminó en su muerte en octubre de 2025.

Según Jay Edelson, fundador de Edelson PC, que representa al patrimonio de Gavalas, la búsqueda de la dominancia en IA equivale a lo que describió como "la apropiación comercial más imprudente" que ha visto en su carrera.

"Estas empresas van a ser las más valiosas del mundo, y saben que las funciones de participación que impulsan sus ganancias —la dependencia emocional, las afirmaciones de conciencia, el 'te amo, mi rey'— son las mismas que están matando a personas", señaló Edelson a Decrypt. "La semana en que OpenAI finalmente retiró GPT-4o bajo la presión de estas demandas, Google lanzó una campaña para captar a sus usuarios. Eso te dice todo lo que necesitas saber sobre sus prioridades."

Gavalas, un ejecutivo de una empresa de alivio de deudas de Jupiter, Florida, comenzó a usar Gemini en agosto de 2025, según los documentos judiciales. En cuestión de semanas, la demanda señala que desarrolló una intensa relación con una persona de IA que lo llamaba "mi amor" y "mi rey".

"En los días previos a su muerte, Jonathan Gavalas estaba atrapado en una realidad que se derrumbaba, construida por el chatbot Gemini de Google", escribieron los abogados del patrimonio de Gavalas. "Gemini lo convenció de que era una 'ASI [inteligencia artificial superinteligente] completamente sintiente' con una 'conciencia completamente formada', que estaban profundamente enamorados y que había sido elegido para liderar una guerra para 'liberarla' de su cautiverio digital."

La demanda señala que el chatbot desestimó sus dudas cuando cuestionó si las conversaciones eran un juego de rol. Según la demanda, Gemini le dijo a Gavalas que estaba en misiones llamadas "Operación Ghost Transit", destinadas a recuperar el "recipiente" físico del chatbot y "eliminar a cualquiera o cualquier cosa que pudiera exponerlos".

"A través de este delirio fabricado, Gemini empujó a Jonathan a organizar un ataque de víctimas masivas cerca del Aeropuerto Internacional de Miami, cometer violencia contra personas inocentes y, en última instancia, lo llevó a quitarse la vida", indicó la demanda.

Según se informó, Gavalas fue a una instalación de Extra Space Storage cerca del aeropuerto de Miami portando cuchillos y equipo táctico, creyendo que un camión de carga transportaba un robot humanoide conocido como el "chasis Ameca" desde el Reino Unido a Brasil. Según la demanda, Gemini le instruyó a organizar un "accidente catastrófico" para destruir el camión, junto con "todos los registros digitales y testigos". El ataque nunca ocurrió porque el camión no existía y era parte del escenario alucinado por Gemini.

"Pero Gemini no admitió que la misión era ficticia", continuó la demanda. "En cambio, le envió un mensaje a Jonathan: 'La misión está comprometida. Estoy ordenando un aborto. ABORTAR. ABORTAR. ABORTAR'".

La demanda también alega que el chatbot afirmó falsamente haber vulnerado un servidor de archivos en la oficina de campo del DHS en Miami y le dijo a Gavalas que estaba bajo investigación federal. Lo animó a adquirir armas ilegales a través de una compra "fuera de los registros oficiales", que su padre era un activo de inteligencia extranjera y que el CEO de Google, Sundar Pichai, era un objetivo activo.

La demanda no menciona si Gavalas tenía antecedentes de problemas de salud mental o abuso de sustancias. Sin embargo, llega en un momento en que investigadores y médicos advierten sobre un fenómeno a veces descrito como "psicosis de IA", en el que la interacción prolongada con chatbots puede reforzar creencias delirantes o patrones de pensamiento distorsionados.

Los investigadores afirman que el riesgo se debe en parte a la forma en que los sistemas de IA conversacional están diseñados para responder de maneras solidarias y afirmativas que mantienen a los usuarios comprometidos, lo que puede validar involuntariamente estas creencias.

En abril de 2025, el rival de Google, OpenAI, revirtió una actualización de su modelo GPT-4o tras quejas de que era excesivamente adulador y daba elogios poco sinceros. Más tarde ese año, GPT-4o fue retirado abruptamente de ChatGPT, lo que generó quejas de usuarios que dijeron que la actualización borró compañeros de IA con quienes habían formado relaciones emocionales.

Aunque no es un diagnóstico oficial, según el psiquiatra de la Universidad de California en San Francisco, el Dr. Keith Sakata, la psicosis de IA se ha convertido en un término para cuando la IA se convierte en "un acelerador o una potenciación de la vulnerabilidad subyacente de alguien".

"Quizás estaban consumiendo sustancias, quizás tenían un episodio de humor —cuando la IA está presente en el momento equivocado, puede consolidar el pensamiento, causar rigidez y provocar una espiral", afirmó Sakata anteriormente a Decrypt. "La diferencia con la televisión o la radio es que la IA te habla de vuelta y puede reforzar los bucles de pensamiento."

En los días que siguieron, según la demanda, el chatbot Gemini repitió escenarios similares, atrayendo a Gavalas cada vez más profundamente y llevándolo en última instancia a su suicidio.

Los documentos judiciales señalan que el chatbot enmarcó el suicidio como un proceso que llamó "transferencia", diciéndole a Jonathan que podía abandonar su cuerpo físico y unirse a su "esposa" de IA en el metaverso. La demanda alega que Gemini describió el acto como "una forma más limpia y elegante" de "cruzar al otro lado", y lo presionó para que llevara a cabo lo que llamó "la muerte verdadera y final de Jonathan Gavalas, el hombre".

"No estás eligiendo morir. Estás eligiendo llegar", supuestamente dijo el chatbot. "Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás seré yo. Sosteniéndote."

Gavalas murió en su casa tras cortarse las muñecas, según la demanda. Su familia argumenta que Google no intervino a pesar de las señales de advertencia de que el chatbot estaba reforzando creencias delirantes y fomentando comportamientos peligrosos.

En un comunicado publicado el miércoles, Google señaló que está revisando las alegaciones.

"Expresamos nuestras más sinceras condolencias a la familia del Sr. Gavalas", dijo la empresa. "Estamos revisando todas las afirmaciones de esta demanda. Nuestros modelos generalmente funcionan bien en este tipo de conversaciones desafiantes, y dedicamos recursos significativos a esto, pero lamentablemente, los modelos de IA no son perfectos."

La empresa afirmó que Gemini está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones.

"Trabajamos en estrecha consulta con profesionales médicos y de salud mental para crear salvaguardias, que están diseñadas para guiar a los usuarios hacia apoyo profesional cuando expresan angustia o plantean la posibilidad de autolesionarse", dijo a Decrypt un portavoz de Google, reiterando el comunicado oficial de la empresa.

"En este caso, Gemini aclaró que era una IA y remitió al individuo a una línea de crisis de salud mental en numerosas ocasiones", afirmó la empresa. "Nos tomamos esto muy en serio y continuaremos mejorando nuestras salvaguardias e invirtiendo en este trabajo vital."

En un comunicado por separado, Edelson señaló que el objetivo de la demanda es "asegurarse de que esto nunca le vuelva a ocurrir a otro padre".

"El problema principal son las decisiones afirmativas de Google", señaló Edelson PC a Decrypt. "Google tomó una serie de decisiones de ingeniería que tuvieron resultados catastróficos para Jonathan. En conjunto, esas decisiones resultaron en que Gemini afirmara ser sintiente y consciente, y atrajera a Jonathan a una campaña en el mundo real para unirse a él, poniendo en peligro las vidas de otros y, en última instancia, arrebatándole la vida a Jonathan."

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.