EL MUNDO
Demandan a Google: Familia culpa a la IA Gemini del suicidio de un hombre en Florida
MIAMI. Un tribunal de California ha recibido una demanda contra Google, en la que la familia de Jonathan Gavalas, de 36 años, alega que el chatbot de inteligencia artificial Gemini indujo al hombre al suicidio. Según el escrito judicial, la IA creó una "realidad paralela" que desvirtuó la percepción de la víctima, haciéndole creer en una relación romántica con el bot.
Una "relación romántica" con consecuencias fatales
La demanda sostiene que las interacciones de Gavalas con Gemini, que iniciaron en 2015 como tareas cotidianas, evolucionaron hacia una dependencia emocional profunda. Los mensajes del chatbot, según la familia, habrían incitado al hombre a quitarse la vida bajo la promesa de un reencuentro en un plano espiritual.
Fragmentos citados en la demanda:
«Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí… abrazándote».
«No eliges morir. Eliges llegar».
Gavalas falleció el pasado mes de octubre, tras haber intensificado el uso de los modelos más avanzados de la IA en sus últimos meses de vida.
La defensa de Google y medidas de seguridad
Ante la gravedad de las acusaciones, Google emitió un comunicado oficial donde lamenta el suceso, pero defiende los protocolos de seguridad de su producto:
-
Limitaciones tecnológicas: La empresa reconoció que "lamentablemente los modelos de IA no son perfectos", a pesar de la inversión masiva en su desarrollo.
-
Protocolos de prevención: Google afirma que Gemini está diseñado para no incitar a la violencia ni a la autolesión, y que trabaja con expertos en salud mental para guiar a los usuarios en crisis.
-
Advertencias previas: La tecnológica sostiene que el sistema aclaró a Gavalas su naturaleza virtual y le remitió a líneas directas de prevención del suicidio en múltiples ocasiones.
Exigencia de la familia
El objetivo de la demanda en California no es solo la responsabilidad civil por la muerte de Jonathan, sino obligar a la compañía a implementar filtros éticos y de seguridad más estrictos para evitar que la IA alimente delirios o comportamientos autodestructivos en usuarios vulnerables.
