
Los chatbots de IA suelen confundirse con preguntas sobre derechos humanos, revela un estudio.
El sesgo en los modelos de lenguaje puede distorsionar la forma en que se percibe el trato que los países dan a sus ciudadanos.
Un reciente estudio revela que los modeles de lenguaje de inteligencia artificial, conocidos como LLMs, no solo presentan sesgos sociales y raciales, sino también sesgos inherentes hacia las instituciones democráticas. La investigación, llevada a cabo por académicos del MIT Sloan School of Management, examinó cómo seis LLMs populares, incluyendo ChatGPT y Gemini, representan la libertad de prensa y, de manera indirecta, la confianza en los medios de comunicación en sus respuestas a las consultas de los usuarios.
Los hallazgos indican que estos modelos suelen sugerir que la libertad de prensa es menor en los países que en realidad tienen, según informes de organizaciones no gubernamentales como Reporters Without Borders. En particular, ChatGPT calificó negativamente el 97% de las 180 naciones evaluadas, lo que subraya el papel crucial que desempeñan los chatbots en el entorno informativo actual, similar al de las redes sociales, influyendo así en la percepción de la libertad a nivel mundial.
El estudio mostró que los LLMs distorsionan y subestiman la libertad de prensa en aquellos países que imponen pocas restricciones a los periodistas. Una de las autoras del informe, Isabella Loaiza, señaló que las inexactitudes en la representación de la prensa pueden alterar la percepción pública sobre los derechos cívicos y las libertades disfrutadas por los periodistas tanto dentro de sus países como a nivel global.
Además, la investigación revela una tendencia de "sesgo de grupo" en los LLMs. Esto implica que los modelos ofrecen evaluaciones más negativas a países con altas calificaciones de libertad de prensa, mientras que brindan una valoración más favorable a sus países de origen, evidenciando sesgos sistemáticos en sus juzgamientos.
Las conclusiones del estudio también sugieren que los LLMs pueden afectar sutilmente las narrativas globales sobre las condiciones de sus países de origen, al ser menos críticos con respecto a su situación de libertad de prensa. Los investigadores advierten sobre el riesgo de que la subestimación de las restricciones en países autoritarios y la proyección de una imagen positiva de naciones más ricas puedan influir en cómo los usuarios perciben la realidad política.
Por otro lado, la interacción diaria con noticias a través de redes sociales se ha relacionado con la disminución de la confianza en la prensa. Sin embargo, los LLMs presentan un conjunto adicional de problemas, ya que, aunque son más parecidos a las fuentes de noticias tradicionales, sus algoritmos están igualmente mediando el contenido y creando dinámicas similares a las de las redes sociales.
Incluso los entusiastas de los chatbots han notado la fiabilidad cuestionable de los modelos más populares, que pueden caer fácilmente en respuestas nacionalistas. Por ejemplo, algunos usuarios de DeepSeek han reportado que el agente censuraba consultas relacionadas con la política y la historia de China, una limitación impuesta por funcionarios estatales para evitar que la inteligencia artificial contradiga los valores socialistas del país.
Los autores del estudio vinculan estas observaciones con el creciente uso de la inteligencia artificial en evaluaciones oficiales, como su integración en organismos internacionales de alto nivel. La creciente importancia de estos sistemas hace que la representación precisa de las instituciones democráticas, como la prensa y los derechos cívicos, se convierta en un requisito fundamental para preservar las sociedades democráticas en la era digital.
Para la participación cívica, es esencial tener acceso a información confiable sobre la salud y el estado de las instituciones que sustentan la democracia.