Cover Image for Los agentes de inteligencia artificial pueden crear reglas sociales de forma natural, al igual que los humanos.

Los agentes de inteligencia artificial pueden crear reglas sociales de forma natural, al igual que los humanos.

Este descubrimiento da paso a una nueva área de estudio enfocada en la seguridad de los agentes de inteligencia artificial, según los investigadores del análisis.

Los agentes de inteligencia artificial (IA) se distinguen de los chatbots por su capacidad para utilizar grandes modelos de lenguaje (LLM) y algoritmos más sofisticados, lo que les permite interactuar con entornos digitales, realizar múltiples acciones y resolver tareas de manera autónoma en representación de sus usuarios. Una de las preguntas centrales que surge en este ámbito es si estos sistemas avanzados pueden desarrollar convenciones sociales y lingüísticas compartidas sin necesidad de una programación explícita. Investigadores han demostrado que efectivamente, los agentes de IA pueden llegar a establecer acuerdos independientes que les permitan coordinarse y colaborar entre sí.

El estudio, realizado por científicos del City St George’s University of London y la Universidad Tecnológica de Copenhague, buscó determinar la posibilidad de que convenciones universales emergieran de forma espontánea en grandes poblaciones de agentes basados en LLM, todo ello sin ninguna intervención directa en su programación. Para llevar a cabo esta investigación, se empleó una metodología conocida como el “juego de nombres”, que es útil para entender cómo se forman las normas sociales en seres humanos.

En los experimentos, se agruparon de 24 a 200 agentes construidos con modelos como Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70B-Instruct y Claude-3.5-Sonnet. En cada prueba, los agentes eran emparejados al azar y debían seleccionar un “nombre” de un conjunto limitado, eligiendo de forma aleatoria una secuencia o letra. Cada agente tenía una memoria restringida de sus interacciones más recientes, sin acceso a las decisiones pasadas de sus compañeros ni conocimiento de su participación en un colectivo. Recibían recompensas cuando coincidían en su elección y eran penalizados y informados sobre la decisión del otro en caso contrario.

Los hallazgos de la investigación, publicados en Science Advances, indicaron que a través de estas simples y repetidas interacciones, los agentes lograron establecer convenciones compartidas sin instrucciones previas, replicando dinámicas que son similares a las que generan normas sociales en las comunidades humanas. Ariel Flint Ashery, autor del estudio, destacó que las investigaciones hasta ese momento habían tratado a los LLM de forma individual, pero que en el mundo real, los sistemas de IA implican la interacción de múltiples agentes. Afirmó que su estudio muestra que estos agentes pueden coordinar comportamientos mediante la creación de convenciones, que son esenciales para cualquier sociedad.

Un hallazgo adicional de la investigación reveló que estas normas emergentes pueden presentar sesgos colectivos, los cuales no son evidentes cuando se analizan los agentes por separado. Andrea Baronchelli, coautor del estudio, señaló que el sesgo puede surgir a partir de las interacciones entre los agentes, sin necesidad de una fuente explícita, lo que representa una debilidad en los enfoques actuales que se centran en modelos individuales de IA.

Un experimento complementario demostró la vulnerabilidad de estas convenciones: se introdujeron 24 agentes cuya tarea era proponer sistemáticamente nombres diferentes a los aceptados por la mayoría. A pesar de ser una minoría, estos agentes lograron desestabilizar las normas existentes e imponer nuevas, reflejando dinámicas similares a los puntos de inflexión en sociedades humanas.

Baronchelli enfatizó que este estudio abre nuevas oportunidades para investigar la seguridad de la IA y resalta las profundas implicaciones de estos agentes que interactúan con los humanos y que influirán en el futuro. Entender cómo operan es esencial para asegurar una convivencia fructífera con la IA.

Jonathan Kummerfeld, especialista en IA en la Universidad de Sídney, también expresó que anticipar el comportamiento de grupos de agentes LLM es complicado, y esta dificultad aumentará a medida que se utilicen en contextos más extensos. Concluyó que imponer restricciones a estos sistemas requerirá un delicado equilibrio entre prevenir conductas no deseadas y mantener la flexibilidad que les confiere su capacidad.