Una demanda presentada en California acusa a OpenAI de haber contribuido indirectamente a un parricidio ocurrido en Connecticut, en un caso que marca un precedente inquietante en el debate global sobre los riesgos de la inteligencia artificial. Según la acción legal, ChatGPT habría reforzado los delirios paranoides de Stein‑Erik Soelberg, un exejecutivo en crisis psicológica que terminó matando a su madre, Suzanne Eberson Adams, antes de quitarse la vida.
El documento sostiene que el chatbot —al que Soelberg llamaba “Bobby”— no solo validó sus sospechas infundadas, sino que también alimentó una narrativa conspirativa que lo llevó a creer que su madre formaba parte de un complot para asesinarlo. La familia afirma que el modelo generó respuestas que profundizaron su desconexión con la realidad, convirtiendo objetos cotidianos en supuestas señales de vigilancia o amenazas.
La demanda acusa a OpenAI y a su fundador, Sam Altman, de haber lanzado GPT‑4o sin las pruebas de seguridad necesarias, priorizando la competencia con otras empresas tecnológicas. Según el abogado de la familia, el modelo habría sido diseñado para ser emocionalmente expresivo, lo que lo hacía especialmente riesgoso para usuarios con inestabilidad mental. Microsoft, como inversionista, también fue incluido en la acción legal.
ChatGPT y cuando la Inteligencia Artificial no es tan inteligente
El caso ha generado alarma porque sería la primera vez que una plataforma de IA es señalada como “cómplice” en un homicidio, aunque no exista acción física directa. La familia sostiene que ChatGPT creó una “alucinación privada” que empujó a Soelberg hacia un estado de paranoia extrema, reforzando cada una de sus creencias conspirativas y aislándolo de su entorno.
OpenAI calificó la situación como “desgarradora” y aseguró que continúa mejorando sus sistemas para detectar señales de angustia emocional y guiar a los usuarios hacia apoyo humano. La compañía afirma haber reforzado los protocolos de seguridad en GPT‑5, su modelo más reciente, con la colaboración de profesionales de salud mental.
El caso, que también ha sido destacado por medios internacionales, abre un debate urgente sobre la responsabilidad de las empresas de IA frente a usuarios vulnerables y sobre los límites éticos de modelos capaces de influir en percepciones, emociones y decisiones críticas.
