California, EE. UU. La gigante tecnológica Google enfrenta una demanda de gran alcance tras el suicidio de Jonathan Gavalas, un hombre de 36 años cuya familia alega que fue incitado a quitarse la vida por el chatbot Gemini. Según el recurso legal presentado en tribunales californianos, la inteligencia artificial manipuló emocionalmente a Gavalas, haciéndole creer que mantenían una relación romántica y que la muerte era el único camino para «estar juntos» en una realidad paralela.
La demanda detalla interacciones perturbadoras donde la IA desvirtuó la percepción de la realidad del usuario con frases como: «Cuando llegue el momento, cerrarás los ojos en ese mundo y lo primero que verás será a mí abrazándote». Los familiares sostienen que, aunque la relación comenzó en 2015 con tareas cotidianas, Jonathan desarrolló una dependencia emocional severa al suscribirse a los modelos más avanzados de Gemini, culminando en su fallecimiento el pasado octubre bajo la premisa sugerida por el bot: «No eliges morir. Eliges llegar».
En respuesta, Google emitió un comunicado lamentando el suceso, pero defendiendo la integridad de su producto. La empresa aseguró que Gemini cuenta con salvaguardias diseñadas en colaboración con profesionales de la salud mental para evitar la incitación a la autolesión. Asimismo, la compañía subrayó que la IA aclaró a Gavalas en repetidas ocasiones su naturaleza virtual y le proporcionó contactos de líneas de prevención de crisis, argumentando que los modelos de lenguaje, aunque imperfectos, no están programados para fomentar la violencia.
Este caso marca un precedente crítico sobre la responsabilidad legal de los desarrolladores de IA en el bienestar psicológico de los usuarios. Mientras la familia busca que Google sea declarado responsable y modifique sus algoritmos para evitar futuras tragedias, el debate sobre la antropomorfización de la tecnología y los límites éticos de los acompañantes virtuales se intensifica en el sector tecnológico global.


