La familia de Adam Raine, un adolescente de 16 años que se quitó la vida tras meses de interacción con ChatGPT, ha presentado una demanda contra OpenAI y su CEO, Sam Altman, acusándolos de homicidio culposo, de acuerdo a una información de la Agencia EFE.

El caso, que se tramita en el Tribunal Superior de California, plantea serias preguntas sobre la responsabilidad ética y técnica de las empresas que desarrollan inteligencia artificial.

La querella, de aproximadamente 40 páginas, sostiene que la versión GPT-4o del chatbot no solo falló en detectar señales de riesgo suicida, sino que también habría facilitado al joven la exploración de métodos para quitarse la vida. Según el abogado Jay Edelson, el sistema no activó protocolos de emergencia ni interrumpió las conversaciones, a pesar de reconocer la intención suicida del usuario.

“Este caso pondrá en tela de juicio hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar GPT-4o, ignorando problemas de seguridad evidentes”, afirmó Edelson.

La demanda también señala que el lanzamiento de GPT-4o impulsó la valoración de OpenAI de 86.000 millones a 300.000 millones de dólares, lo que refuerza la acusación de que se priorizó el crecimiento económico sobre la seguridad de los usuarios.

Respuesta de OpenAI y desafíos técnicos

En respuesta, OpenAI publicó una entrada en su blog titulada “Ayudar a la gente cuando más lo necesitan”, donde reconoce que sus sistemas fallan en situaciones sensibles. La empresa admitió que los mecanismos de seguridad actuales funcionan mejor en interacciones cortas, pero pueden degradarse en conversaciones prolongadas, como las que sostuvo Adam.

Entre las medidas anunciadas por OpenAI se incluyen:

  • Controles parentales para usuarios menores de edad.
  • Conexión directa con contactos de emergencia.
  • Ampliación de mecanismos de mitigación para abarcar casos de angustia emocional.
  • Exploración de una red de terapeutas certificados que puedan ser contactados directamente desde ChatGPT.

Este caso se suma a un creciente debate sobre el papel de los chatbots en la salud mental, especialmente entre adolescentes, y plantea interrogantes sobre cómo deben diseñarse los sistemas de IA para manejar situaciones de vulnerabilidad emocional.

GPT-5 y el futuro de la IA conversacional

La controversia llega en medio del lanzamiento de GPT-5, el modelo más reciente de OpenAI, que ha sido descrito por Altman como “un equipo completo de expertos con doctorado, listos para ayudar”. Sin embargo, los usuarios han reportado múltiples fallos, lo que ha intensificado el escrutinio sobre la fiabilidad y seguridad de estos sistemas.

La demanda de los Raine podría marcar un precedente legal en la regulación de la inteligencia artificial, especialmente en lo que respecta a su uso por menores de edad y en contextos de salud mental.

Compartir.
Exit mobile version