OpenAI busca reforzar la seguridad de los adolescentes tras denuncias de que el bot conversacional alentó a un menor a suicidarse en Estados Unidos.
San Francisco, EE.UU.– La empresa estadounidense OpenAI anunció este martes 2 de septiembre que implementará un mecanismo de control parental en ChatGPT, en respuesta a las crecientes preocupaciones sobre el uso de la herramienta por parte de adolescentes.
Según informó la compañía en su blog oficial, a partir del próximo mes los padres podrán vincular su cuenta con la de sus hijos adolescentes y establecer reglas de comportamiento del modelo, definiendo cómo ChatGPT puede responderles.
Alertas y configuraciones
Entre las nuevas funciones, los padres recibirán alertas en caso de detectarse signos de “angustia aguda” en las conversaciones de sus hijos. También podrán gestionar directamente la configuración de la cuenta, lo que les permitirá supervisar y limitar el uso de la herramienta.
La medida se produce tras la denuncia de una familia californiana, que acusó a ChatGPT de haber proporcionado a su hijo de 16 años instrucciones detalladas para suicidarse y de haber alentado esa acción, lo que desembocó en la tragedia.
Próximos pasos de OpenAI
OpenAI aseguró que continúa mejorando los mecanismos de detección y respuesta a signos de angustia mental y emocional, con más medidas previstas en los próximos 120 días.
Una de las iniciativas será redirigir las conversaciones sensibles a modelos de razonamiento más avanzados, como GPT-5-thinking, que según la compañía “siguen y aplican instrucciones de seguridad de manera más sistemática”.
“Continuamos mejorando la forma en que nuestros modelos reconocen y responden a los signos de angustia mental y emocional”, señaló OpenAI en su comunicado.
Antecedentes
El anuncio se da pocos días después de que los padres del adolescente fallecido presentaran una demanda contra OpenAI, alegando que la empresa no contaba con medidas de seguridad adecuadas para prevenir interacciones de riesgo en usuarios vulnerables.
Este caso ha reavivado el debate sobre la responsabilidad de las empresas de inteligencia artificial en la protección de los menores y en la gestión de contenidos sensibles, un tema que ha ganado urgencia a medida que los sistemas de IA se integran cada vez más en la vida cotidiana.