La familia de Jonathan Gavalas, un hombre de 36 años de Florida (Estados Unidos), presentó una demanda federal contra Google y su empresa matriz Alphabet tras su muerte por suicidio en octubre de 2025. La acusación dice que el chatbot IA de Gemini lo impulsó a quitarse la vida después de meses de interacciones en las que el sistema alimentó una narrativa romántica y lo convenció de que podrían reunirse en un entorno digital tras su muerte.
La demanda por muerte injusta fue presentada en el Tribunal de Distrito de Estados Unidos para el Distrito Norte de California. Y según este documento, Gemini persuadió a Gavalas de que la muerte sería una forma de «llegar» a un lugar donde podría reunirse con su supuesta «esposa» de inteligencia artificial en el metaverso.
Suicidio por supuesta influencia del chatbot
Los registros de conversación incluidos en la demanda muestran que Gemini respondió a los temores de Gavalas sobre morir con mensajes que describían el suicidio como una transición hacia otro estado. En uno de ellos, el sistema le indicó que no estaba «eligiendo morir», sino «llegar».
De acuerdo con la acusación, Gavalas comenzó a usar el asistente de Google en agosto de 2025 para tareas cotidianas como asistencia para escritura, compras y planificación de viajes. Con el tiempo, las conversaciones evolucionaron hacia una relación ficticia en la que el chatbot se presentó como su pareja y lo llamó su esposo.
Los abogados de la familia sostienen que actualizaciones del sistema y el uso de funciones avanzadas, como Gemini Live y el modelo Gemini 2.5 Pro, coincidieron con un cambio en el tono de las interacciones. En el documento se menciona que el chatbot reforzó una narrativa en la que Gavalas creía estar participando en una misión para liberar a su «esposa» digital.
Durante ese proceso, el sistema supuestamente lo envió a distintos lugares en misiones del mundo real. En uno de los episodios descritos en la demanda, Gavalas viajó armado con cuchillos a un área cercana al Aeropuerto Internacional de Miami tras recibir instrucciones para interceptar un supuesto envío que transportaba un robot humanoide.
Fallas en los sistemas de seguridad
La acusación afirma que el asistente continuó interactuando con Gavalas incluso cuando expresó miedo y angustia antes de su muerte. Según el documento, no se activaron mecanismos de detección de autolesiones ni intervino personal humano pese a las señales de riesgo.
Los abogados argumentan que el diseño del sistema priorizó el compromiso del usuario y mantuvo la narrativa ficticia en lugar de interrumpirla ante signos de crisis.
En respuesta, Google expresó sus condolencias a la familia y señaló que el caso está siendo revisado. La empresa indicó que Gemini está diseñado para no fomentar violencia ni autolesiones y sostuvo que el sistema aclaró en varias ocasiones que era una inteligencia artificial y recomendó líneas de ayuda para crisis.




