Fundado en 1910
ChatGPT ya permite al usuario hacer compras mediante su chatbot

ChatGPT ya permite al usuario hacer compras mediante su chatbotURJC

OpenAI afronta una demanda por el suicidio de un menor y anuncia refuerzos en la seguridad de ChatGPT

La compañía admite deficiencias en su sistema de protección en casos de vulnerabilidad y promete nuevas medidas de prevención y apoyo psicológico

OpenAI se encuentra bajo el foco mediático y judicial después de que este martes se presentara en California una demanda contra la empresa y su director ejecutivo, Sam Altman, por el suicidio de un joven de 16 años en Estados Unidos. Los padres del menor acusan a la compañía de no haber activado correctamente los mecanismos de seguridad de su chatbot ChatGPT, basado en el modelo GPT-4o, pese a que el adolescente manifestó de manera reiterada intenciones suicidas en sus interacciones con la herramienta.

En paralelo a la noticia de la demanda, la compañía tecnológica publicó en su blog un comunicado titulado «Ayudar a la gente cuando más lo necesitan». Aunque evitó mencionar el caso específico, OpenAI reconoció que su sistema no siempre responde de forma adecuada en situaciones delicadas. La empresa admitió que sus protocolos de seguridad «se quedan cortos» en determinados escenarios y que el chatbot «no se comportó como debía» cuando debía detectar y responder ante señales de riesgo.

La compañía explicó que las medidas de protección actuales funcionan con mayor eficacia en intercambios breves, pero que su desempeño se debilita en conversaciones largas y sostenidas, donde la IA puede «degradar» su entrenamiento. Por ello, OpenAI trabaja en mecanismos que permitan identificar de manera constante la intención suicida en diálogos prolongados, con el objetivo de intervenir de forma más efectiva.

Otro de los puntos clave anunciados es la protección de menores. Actualmente, ChatGPT es capaz de reconocer cuando un usuario declara tener menos de 18 años, lo que activa ciertos filtros. Sin embargo, la empresa ampliará estas salvaguardas incorporando controles parentales que permitan a los responsables de los adolescentes supervisar su uso de la herramienta. Además, se estudia la posibilidad de que, en casos de riesgo, el sistema conecte de manera automática al joven con un contacto de emergencia.

OpenAI también adelantó que la futura versión de su modelo, GPT-5, integrará mejoras orientadas a la prevención de crisis emocionales. Entre ellas, se incluirán herramientas para «disminuir» situaciones de angustia, reforzar la conexión con la realidad del usuario y, de ser necesario, dirigirlo hacia recursos de apoyo profesional. La compañía evalúa incluso la creación de una red de terapeutas licenciados accesibles directamente a través de ChatGPT, aunque reconoce que esta iniciativa requiere un desarrollo a más largo plazo.

Más allá de la autolesión, la empresa ha decidido ampliar el alcance de sus sistemas de mitigación a contextos de «angustia emocional», con el fin de abarcar un espectro más amplio de problemáticas que afectan a la salud mental de los usuarios. Esta línea de trabajo responde no solo a las críticas actuales, sino también al debate internacional sobre la responsabilidad de las empresas tecnológicas en la protección de las personas más vulnerables ante la expansión de la inteligencia artificial.

comentarios
tracking

Compartir

Herramientas