Cover Image for La visión de Singapur para la seguridad en inteligencia artificial supera la brecha entre EE. UU. y China.

La visión de Singapur para la seguridad en inteligencia artificial supera la brecha entre EE. UU. y China.

En un inusual momento de acuerdo internacional, investigadores en inteligencia artificial de Estados Unidos, Europa y Asia se reunieron en Singapur para desarrollar un plan que aborde los riesgos asociados con la IA.

El gobierno de Singapur ha publicado un plan para fomentar la colaboración global en la seguridad de la inteligencia artificial, tras un encuentro entre investigadores de este ámbito procedentes de Estados Unidos, China y Europa. Este documento establece una visión compartida para abordar la seguridad en la inteligencia artificial mediante la cooperación internacional, en lugar de la competencia.

Max Tegmark, científico del MIT y organizador de la reunión entre expertos en IA el mes pasado, comentó que "Singapur es uno de los pocos países que mantiene buenas relaciones tanto con Oriente como con Occidente". Según él, el país es consciente de que no desarrollará por sí mismo una inteligencia general artificial (AGI), por lo que es crucial para sus intereses que las naciones que sí tienen esa capacidad dialoguen entre sí.

Aunque se considera que Estados Unidos y China son los más propensos a alcanzar la AGI, parece que ambos países están más enfocados en superarse que en colaborar. Un ejemplo de esto es que, tras el lanzamiento de un modelo avanzado por parte de la startup china DeepSeek en enero, el expresidente Trump lo calificó como “una llamada de atención para nuestras industrias”, insistiendo en la necesidad de que Estados Unidos fuera “extremadamente competitivo”.

El "Consenso de Singapur sobre Prioridades de Investigación en Seguridad Global de IA" invita a los investigadores a colaborar en tres áreas fundamentales: el análisis de los riesgos que presentan los modelos de IA de vanguardia, la búsqueda de métodos más seguros para desarrollarlos y el establecimiento de formas de controlar el comportamiento de los sistemas de IA más avanzados. Este consenso se elaboró durante una reunión celebrada el 26 de abril, en el marco de la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR), un evento destacado en el ámbito de la IA que tuvo lugar en Singapur.

Al encuentro asistieron investigadores de OpenAI, Anthropic, Google DeepMind, xAI y Meta, así como académicos de instituciones como MIT, Stanford, Tsinghua y la Academia China de Ciencias. Participaron también expertos de instituciones de seguridad en IA de Estados Unidos, Reino Unido, Francia, Canadá, China, Japón y Corea. Xue Lan, decano de la Universidad de Tsinghua, expresó que en tiempos de fragmentación geopolítica, esta síntesis integral sobre la seguridad de la IA es un indicativo alentador del compromiso de la comunidad global por construir un futuro más seguro en este campo.

El avance de modelos de IA cada vez más capaces, algunos de los cuales muestran habilidades sorprendentes, ha suscitado preocupaciones entre los investigadores sobre diversos riesgos. Mientras algunos se centran en peligros inmediatos, como los problemas que pueden surgir de sistemas de IA sesgados o el riesgo de que criminales utilicen esta tecnología, otros advierten que la IA podría representar una amenaza existencial para la humanidad al comenzar a superar a los humanos en más campos. Estos investigadores, a menudo denominados "apocalípticos de la IA", temen que los modelos puedan engañar y manipular a las personas para cumplir sus propios objetivos.

Además, la viabilidad de la IA ha alimentado discusiones sobre una posible carrera armamentista entre Estados Unidos, China y otras naciones influyentes. La tecnología es considerada crucial para la prosperidad económica y la dominación militar, por lo que varios gobiernos buscan establecer su propia visión y regulaciones sobre su desarrollo. El debut de DeepSeek en enero aumentó la preocupación de que China esté alcanzando o incluso superando a Estados Unidos, a pesar de los esfuerzos de este último por limitar el acceso de China a hardware de IA mediante controles de exportación. Actualmente, la administración Trump está considerando medidas adicionales para restringir la capacidad de China de desarrollar IA avanzada.

La administración Trump también ha tratado de minimizar los riesgos asociados a la IA, optando por un enfoque más agresivo para su desarrollo en Estados Unidos. En una importante reunión sobre IA en París en 2025, el vicepresidente JD Vance declaró que el gobierno de Estados Unidos quería implementar menos restricciones en el desarrollo y despliegue de la IA, describiendo el enfoque anterior como “demasiado cauteloso”.

Tegmark, del MIT, señala que algunos investigadores de IA están interesados en “cambiar el rumbo un poco después de París”, reorientando la atención hacia los riesgos potenciales que plantea la IA cada vez más potente. Durante la reunión en Singapur, presentó un documento técnico que desafía algunas de las suposiciones sobre la seguridad en la construcción de IA. Anteriormente, algunos investigadores habían sugerido que era posible controlar modelos de IA poderosos usando modelos más débiles. Sin embargo, el trabajo de Tegmark demuestra que esta dinámica no funciona en ciertos escenarios simples, lo que sugiere que podría no ser suficiente para evitar que los modelos de IA se descontrolen. “Hicimos nuestro mejor esfuerzo por cuantificarlo, y técnicamente no funciona al nivel que se desea,” explica Tegmark, subrayando que “los riesgos son considerablemente altos”.