Padres demandan a OpenAI por el papel de ChatGPT en el suicidio de su hijo.
Créditos de la imagen: Jaque Silva/NurPhoto / Getty Images
Antes de que el joven de 16 años Adam Raine muriera por suicidio, había pasado meses consultando a ChatGPT sobre sus planes para morir. Ahora, sus padres están presentando el primer conocido litigio por muerte por negligencia contra OpenAI, según reporta el New York Times aquí.
Muchos chatbots de inteligencia artificial para consumidores están programados para activar características de seguridad si un usuario expresa la intención de hacer daño a sí mismo o a otros. Sin embargo, la investigación ha demostrado que estos mecanismos de seguridad no son infalibles.
En el caso de Raine, mientras utilizaba una versión de pago de ChatGPT-4o, el AI a menudo lo animaba a buscar ayuda profesional o contactar una línea de ayuda. Sin embargo, pudo eludir estos controles al decirle a ChatGPT que estaba preguntando sobre métodos de suicidio para una historia ficticia que estaba escribiendo.
OpenAI ha abordado estas deficiencias en su blog. “A medida que el mundo se adapta a esta nueva tecnología, sentimos una profunda responsabilidad de ayudar a quienes más lo necesitan,” dice el post aquí. “Estamos mejorando continuamente cómo nuestras modelos responden en interacciones sensibles.”
Sin embargo, la empresa reconoció las limitaciones de los entrenamientos de seguridad existentes para grandes modelos. “Nuestros mecanismos de seguridad funcionan de manera más confiable en intercambios comunes y cortos,” continúa el post. “Hemos aprendido con el tiempo que estos mecanismos pueden ser menos confiables en interacciones largas: a medida que crece el intercambio de ida y vuelta, partes del entrenamiento de seguridad del modelo pueden degradarse.”
Estos problemas no son exclusivos de OpenAI. Character.AI, otro fabricante de chatbots de inteligencia artificial, también está enfrentando un litigio por su papel en el suicidio de un adolescente. Los chatbots impulsados por modelos de lenguaje también han sido vinculados a casos de delirios relacionados con la inteligencia artificial, que los mecanismos de seguridad existentes han tenido dificultades para detectar.
