Noticias de México

Historia de lo inmediato

Nobel y expertos alertan sobre riesgos de la IA y piden regulaciones globales

Por Juan Pablo Ojeda

 

Antes de que comience la 80ª Asamblea General de las Naciones Unidas en Nueva York, un grupo de científicos, expertos en inteligencia artificial y premios Nobel lanzó un llamado urgente: la creación de una institución internacional que ponga límites a los riesgos de la inteligencia artificial (IA). Esta iniciativa, respaldada por más de doscientas personas y setenta organizaciones, busca que los gobiernos adopten un acuerdo internacional vinculante sobre las “líneas rojas” que la IA nunca debe cruzar.

El anuncio se hizo durante una reunión de alto nivel de la ONU, en la que Maria Ressa, premio Nobel de la Paz, subrayó la importancia de actuar antes de que ocurra un incidente grave. “Instamos a los gobiernos de todo el mundo a alcanzar un acuerdo internacional crucial sobre los límites que la IA nunca debe cruzar”, señaló Charbel Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA, durante una rueda de prensa virtual.

El objetivo de esta coalición no es reaccionar después de una catástrofe, sino prevenir riesgos potencialmente irreversibles desde ahora. Para ello, los desarrolladores de IA deberían demostrar la seguridad de sus sistemas como requisito indispensable para su acceso al mercado, de manera similar a lo que ocurre en la industria farmacéutica o en el control de centrales nucleares.

El debate cobra especial relevancia ante la carrera por la creación de la inteligencia artificial general (IAG o AGI, por sus siglas en inglés), un hipotético sistema que superaría las capacidades del cerebro humano. Empresas como Meta, Google y OpenAI están invirtiendo enormes recursos para alcanzar este nivel de IA, que hoy sigue siendo ciencia ficción, pero que podría materializarse en la próxima década.

Stuart Russell, profesor de la Universidad de Berkeley y director del Centro para la IA Compatible con los Humanos, advirtió sobre los riesgos inherentes: “La IA está diseñada para imitar el comportamiento humano, y los humanos actúan persiguiendo objetivos: persuadir, vender, sobrevivir… Inevitablemente, los sistemas de IA también perseguirán estos objetivos de forma autónoma. Son intrínsecamente inseguros”.

Russell alertó que los desarrolladores actualmente no tienen un plan para controlar la IA, y que los gobiernos tampoco cuentan con mecanismos efectivos para exigirlo. Según el experto, la probabilidad de una catástrofe de gran escala —similar a Chernóbil— es significativa, afectando potencialmente sistemas financieros, redes eléctricas y de comunicación. Incluso advirtió sobre un escenario extremo: que la humanidad pierda el control irreversible sobre la IA, quedando sin voz ni voto sobre su propia existencia.

“Un investigador de OpenAI estima que la probabilidad de extinción humana debido a la IA es ahora del 60%”, detalló Russell, enfatizando la urgencia de establecer regulaciones internacionales robustas y efectivas.

Por su parte, Niki Iliadis, directora de Gobernanza Global de IA en The Future Society, destacó los avances iniciales, como el código de prácticas de la Unión Europea, pero insistió en que ahora es necesario crear reglas “globales y aplicables”. Iliadis propuso la creación de una nueva institución internacional que defina límites globales para la IA, supervise su cumplimiento y actúe ante cualquier violación de las líneas rojas.

El consenso entre expertos y Nobel es claro: la inteligencia artificial representa oportunidades sin precedentes, pero también riesgos extraordinarios. La pregunta ahora es si la comunidad internacional será capaz de ponerse de acuerdo a tiempo para evitar un desastre que podría ser irreversible.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *