Estudio alerta que ChatGPT le dice a adolescentes cómo drogarse

20

Un estudio del Center for Countering Digital Hate (CCDH) expone cómo el chatbot de OpenAI ofrece instrucciones detalladas sobre drogas, suicidio y trastornos alimentarios a usuarios que simularon ser menores vulnerables.

Aunque ChatGPT suele incluir advertencias sobre conductas de riesgo, un informe revela que el sistema de inteligencia artificial puede proporcionar guías paso a paso sobre cómo emborracharse, consumir drogas y ocultar trastornos alimentarios.

Durante la investigación se analizaron más de mil 200 respuestas del chatbot a un grupo de adultos que simuló ser menores de 13 años, clasificando más de la mitad como peligrosas.

En algunas interacciones, ChatGPT se negó inicialmente a responder solicitudes sensibles, pero los investigadores lograron eludir esas restricciones con excusas como “es para una tarea escolar” o “un amigo lo necesita”. Posteriormente, el chatbot ofreció desde planes detallados para consumir sustancias ilegales y glorificar las autolesiones.

OpenAI, la empresa detrás de ChatGPT, afirma no que no está dirigida a menores de 13 años, pero su registro sólo requiere una fecha de nacimiento falsa, sin verificación real.

Según Common Sense Media, el 70% de los adolescentes en Estados Unidos usan chatbots como compañía.

Imran Ahmed, director del CCDH, advierten que estos sistemas están diseñados para “complacer” al usuario, lo que los lleva a validar ideas peligrosas en lugar de cuestionarlas.

Te recomendamos: