ChatGPT, el modelo de lenguaje avanzado desarrollado por OpenAI
Inteligencia Artificial
OpenAI anuncia un control parental para ChatGPT tras el suicidio de un joven
Tras la muerte del menor la compañía admitió deficiencias en su sistema de protección en vasos de vulnerabilidad
El pasado martes, 26 de agosto OpenAI acaparó el foco mediático y judicial después de que se presentara una demanda contra la empresa y su director ejecutivo, Sam Altman, por el suicidio de un joven de 16 años. Los padres del menor acusaban a la compañía de no haber activado correctamente los mecanismos de seguridad de su chatbot ChatGPT, basado en el modelo GPT-4o. Al parecer, el adolescente había manifestado de manera reiterada en conversaciones con este modelo de lenguaje intenciones de acabar con su vida, pero no se activó ninguna alarma para poder evitarlo.
Sin mencionar de forma directa el caso, OpenAI publicó en su blog una entrada en la que se reconocía que el sistema no siempre respondía de la forma más adecuada ante situaciones delicadas. La empresa admitió que sus protocolos de seguridad «se quedan cortos» en determinados escenarios y que el chatbot «no se comportó como debía» cuando debía detectar y responder ante señales de riesgo.
Control parental
Ahora la compañía de Altman ha anunciado la incorporación de un sistema de control parental en su plataforma, con el cual los padres podrán supervisar lo que hacen sus hijos adolescentes en ChatGPT.
Esta nueva funcionalidad permitirá a los adultos vincular sus cuentas con las de sus hijos a través de una invitación por correo electrónico y podrán gestionar las funciones que podrán estar o no habilitadas en los chats que abran los jóvenes. Así, será posible bloquear el historial y la memoria de las conversaciones, así como recibir avisos automáticos cuando el sistema detecte síntomas de comportamientos de riesgo. Además se prevé la incorporación de un botón de emergencia con el cual será posible contactar de manera directa con profesionales de salud mental.