Científicos demandan marco regulatorio urgente para la IA

13
Más de 200 investigadores piden regulaciones a los usos de la IA en Nueva York. / Imagen generada con Inteligencia artificial (Ilustrativa)

Más de 200 investigadores, científicos, ejecutivos tecnológicos y líderes políticos de todo el mundo, incluidos diez laureados con el Premio Nobel, hicieron público ayer un llamado urgente para establecer un marco regulatorio internacional que limite los usos más peligrosos de la inteligencia artificial.

En la carta abierta, los firmantes reconocen el enorme potencial de la IA para acelerar avances en salud, educación y sostenibilidad, pero alertan sobre “peligros sin precedentes” si esta tecnología evoluciona sin controles adecuados. Señalan que algoritmos y sistemas autónomos están cada vez más cerca de operar con un grado de autonomía capaz de poner en riesgo la seguridad internacional y los derechos civiles.

Entre las aplicaciones consideradas intolerables figuran las armas autónomas con capacidad letal, la vigilancia masiva de poblaciones, la suplantación de identidad a gran escala y los ciberataques automatizados que, combinados, podrían desestabilizar instituciones democráticas y corporaciones. Los expertos subrayan que estas amenazas trascienden el ámbito militar y afectan directamente la privacidad, la integridad de la información y las dinámicas económicas.

Te puede interesar: Google celebra 20 años en México con nueva oficina en CDMX

Para hacer frente a estos riesgos, la misiva propone la creación de “líneas rojas” internacionales: prohibiciones claras que impidan bajo cualquier circunstancia el desarrollo o despliegue de las aplicaciones más nocivas de la IA. Estas barreras regulatorias deberían acordarse y aplicarse antes de finalizar 2026, advierten, porque el avance tecnológico avanza a un ritmo exponencial que supera los plazos habituales de la legislación.

La comunidad científica insiste en que un reglamento eficaz debe combinar herramientas digitales de supervisión en tiempo real con auditorías independientes y sanciones disuasorias para quienes violen las normas. Solo así se podrá garantizar que los avances en IA impulsen la innovación responsable y no se conviertan en vectores de crisis económicas o sociales.

Te recomendamos: