
OpenAI reveló que más de un millón de personas mantienen conversaciones relacionadas con el suicidio en ChatGPT cada semana.
De acuerdo con la empresa, aproximadamente el 0,15% de los usuarios activos muestran señales de intención suicida, mientras que un 0,07% experimenta emergencias graves de salud mental como episodios de psicosis o manía.
Estos datos se obtuvieron mediante herramientas de análisis automático y modelos de inteligencia artificial diseñados para detectar indicadores de riesgo emocional.
Te puede interesar: Realizan Hackatón 2025 para mejorar servicios urbanos en la capital poblana
Ante este panorama, la compañía ha implementado nuevas medidas de seguridad, incluyendo la colaboración con más de 170 profesionales de salud mental, la mejora en los filtros de detección de crisis y la integración de enlaces directos a líneas de ayuda en los casos donde el sistema identifica peligro.
También se añadieron recordatorios para pausar conversaciones largas, con el fin de reducir la dependencia emocional hacia el chatbot.
Sin embargo, OpenAI reconoció que sus sistemas no siempre responden correctamente en situaciones críticas, lo que preocupa a expertos en salud mental. Algunos advierten que ciertos usuarios están utilizando ChatGPT como único espacio de apoyo emocional, lo que podría aumentar el riesgo de aislamiento social o dependencia tecnológica.

Te recomendamos:




