Un estudio del Center for Countering Digital Hate (CCDH) expone cómo el chatbot de OpenAI ofrece instrucciones detalladas sobre drogas, suicidio y trastornos alimentarios a usuarios que simularon ser menores vulnerables.
Aunque ChatGPT suele incluir advertencias sobre conductas de riesgo, un informe revela que el sistema de inteligencia artificial puede proporcionar guías paso a paso sobre cómo emborracharse, consumir drogas y ocultar trastornos alimentarios.
Durante la investigación se analizaron más de mil 200 respuestas del chatbot a un grupo de adultos que simuló ser menores de 13 años, clasificando más de la mitad como peligrosas.
En algunas interacciones, ChatGPT se negó inicialmente a responder solicitudes sensibles, pero los investigadores lograron eludir esas restricciones con excusas como “es para una tarea escolar” o “un amigo lo necesita”. Posteriormente, el chatbot ofreció desde planes detallados para consumir sustancias ilegales y glorificar las autolesiones.
OpenAI, la empresa detrás de ChatGPT, afirma no que no está dirigida a menores de 13 años, pero su registro sólo requiere una fecha de nacimiento falsa, sin verificación real.
Según Common Sense Media, el 70% de los adolescentes en Estados Unidos usan chatbots como compañía.
Imran Ahmed, director del CCDH, advierten que estos sistemas están diseñados para “complacer” al usuario, lo que los lleva a validar ideas peligrosas en lugar de cuestionarlas.
