Cover Image for Nueva York aprueba una ley para evitar desastres provocados por la inteligencia artificial.

Nueva York aprueba una ley para evitar desastres provocados por la inteligencia artificial.

Nueva York ha aprobado un proyecto de ley sobre la seguridad de la inteligencia artificial que busca regular los modelos avanzados de IA de OpenAI, Google y Anthropic.

Los legisladores del estado de Nueva York aprobaron el jueves un proyecto de ley cuyo objetivo es evitar que los modelos de inteligencia artificial avanzados de empresas como OpenAI, Google y Anthropic contribuyan a situaciones de desastre que impliquen la muerte o lesión de más de 100 personas, o daños que superen los mil millones de dólares. La aprobación de la Ley RAISE representa un triunfo para el movimiento de seguridad en inteligencia artificial, que ha visto reducir su influencia en los últimos años debido a la prioridad que Silicon Valley y la administración de Trump han dado a la velocidad y la innovación.

Defensores de la seguridad en AI, incluyendo al laureado con el Premio Nobel Geoffrey Hinton y al pionero en investigación de AI Yoshua Bengio, han apoyado la Ley RAISE. En caso de convertirse en ley, este proyecto establecería el primer conjunto de estándares de transparencia legalmente obligatorios para los laboratorios de AI en Estados Unidos. La Ley RAISE comparte algunas disposiciones y objetivos con el controvertido proyecto de ley de seguridad en AI de California, SB 1047, que fue finalmente vetado. Sin embargo, el senador estatal de Nueva York Andrew Gounardes, coauspiciador de la ley, indicó en una entrevista que diseñó el proyecto de manera que no inhiba la innovación entre startups o investigadores académicos, un argumento común en contra de SB 1047.

Gounardes expresó que el tiempo para establecer regulaciones es limitado, dado el rápido avance de la tecnología. “Las personas que más saben sobre esto afirman que estos riesgos son increíblemente probables. Eso es alarmante”, declaró. Ahora, la Ley RAISE se enviará a la oficina de la gobernadora de Nueva York, Kathy Hochul, quien puede firmar la ley, enviarla de vuelta para enmiendas o vetarla completamente. Si se aprueba, la ley exigiría a los mayores laboratorios de AI del mundo que publiquen informes completos sobre la seguridad y la protección de sus modelos de AI avanzados. Además, se obligaría a los laboratorios de AI a reportar incidentes de seguridad.

En caso de que las empresas tecnológicas no cumplan con estos estándares, la Ley RAISE permitirá que el fiscal general de Nueva York imponga sanciones civiles de hasta 30 millones de dólares. Este proyecto de ley tiene como objetivo regular de manera estricta a las empresas más grandes del mundo, independientemente de si están basadas en California o en China. Las exigencias de transparencia se aplican a las compañías cuyos modelos de AI hayan sido entrenados con más de 100 millones de dólares en recursos computacionales.

Aunque presenta similitudes con el SB 1047 en ciertos aspectos, la Ley RAISE fue diseñada para abordar críticas a proyectos de ley anteriores. Entre las diferencias notables, la Ley RAISE no requiere que los desarrolladores de modelos de AI incluyan un “interruptor de bloqueo” en sus sistemas, ni responsabiliza a las empresas que entrenan modelos avanzados por daños críticos. A pesar de esto, la industria tecnológica ha mostrado una fuerte oposición al proyecto de ley. Alex Bores, miembro de la Asamblea de Nueva York y coauspiciador de la Ley RAISE, calificó de no sorprendente la resistencia del sector, asegurando que la ley no limitaría la innovación.

Las preocupaciones también han surgido respecto a que los desarrolladores de modelos de AI podrían optar por no ofrecer sus tecnologías más avanzadas en Nueva York, algo similar a lo que ha ocurrido en Europa debido a regulaciones estrictas. Sin embargo, Bores argumentó que la carga regulatoria de la Ley RAISE es relativamente ligera y no debería afectar la disponibilidad de sus productos en el estado. Dada la posición económica de Nueva York, sería sorprendente que las empresas decidieran retirarse.