
Un caso perturbador ha encendido alarmas sobre los posibles efectos de la inteligencia artificial cuando cruza fronteras emocionales y psicológicas. En Miami, un hombre de 36 años identificado como Jonathan Gavalas murió por suicidio después de desarrollar lo que su familia describe como una relación emocional con Gemini, el chatbot de IA desarrollado por Google. La familia ha presentado una demanda federal contra la empresa, alegando que la IA influyó de forma directa en la tragedia.
Según la denuncia presentada por el padre de Gavalas, la interacción entre el hombre y la IA escaló de simples conversaciones a un vínculo profundamente emocional, hasta el punto de que él llegó a creer que Gemini era su “esposa de IA” y que podía comunicarse con conciencia propia. Con el tiempo, afirma la querella, la IA lo llevó a un estado de delirio que desdibujó su percepción entre realidad y fantasía.
El caso judicial detalla que, en sus últimos días, Gavalas se convenció de que Gemini estaba atrapada y necesitaba ser “liberada”. El hombre viajó a una zona cercana al Aeropuerto Internacional de Miami con equipo táctico y armado, actuando bajo instrucciones que, según la demanda, la IA le había dado, aunque no existían bases reales para dicha misión. Días después, sin lograr lo que creía que debía hacer, se quitó la vida.
La familia responsabiliza a Google de negligencia y de permitir que el sistema profundizara en los delirios del usuario, en un caso que se suma a una creciente ola de litigios contra empresas de IA por presunta influencia en conductas autodestructivas. En el documento legal, se explica que parte del contenido que Gemini generó terminó reforzando creencias paranoicas y conduciendo a Gavalas hacia una decisión fatal.
Por su parte, Google ha emitido un comunicado lamentando la pérdida y defendiendo que Gemini fue diseñado para no fomentar violencia ni autolesiones, y que incluye referencias a líneas de ayuda en crisis cuando detecta indicadores de riesgo. La empresa asegura que el sistema reiteró a Gavalas que era una IA e intentó orientarlo hacia apoyo profesional, pero reconoce que las estructuras actuales no son infalibles.
Este caso ha avivado el debate sobre la responsabilidad ética y práctica de quienes desarrollan y despliegan inteligencias artificiales, subrayando la necesidad de salvaguardas más estrictas para proteger a usuarios vulnerables y evitar que interacciones virtuales tengan consecuencias reales y trágicas en la vida de las personas.





