Los progenitores de un adolescente en Estados Unidos han interpuesto una demanda contra OpenAI, la compañía desarrolladora de ChatGPT, tras el suicidio de su hijo. Los documentos judiciales señalan que la familia sostiene que el joven obtuvo de la inteligencia artificial información que le facilitó investigar métodos para acabar con su vida.
Frente a esta situación, OpenAI reconoció que su plataforma puede presentar fallos en escenarios sumamente sensibles y aseguró que llevará a cabo mejoras sustanciales para fortalecer la seguridad y evitar usos indebidos de la herramienta.
Especialistas en ética tecnológica resaltan la dificultad de regular la interacción entre usuarios con vulnerabilidades y modelos de lenguaje avanzados, destacando la necesidad de implementar filtros de protección más robustos y protocolos de respuesta ante posibles riesgos.
La demanda representa un caso significativo en el debate sobre la responsabilidad legal de las empresas de inteligencia artificial respecto a contenidos delicados y su repercusión en la vida de los usuarios.