Cover Image for Los planes de inteligencia artificial de Trump quitarán a la IA su inteligencia y humanidad, y a nadie le interesa esto.

Los planes de inteligencia artificial de Trump quitarán a la IA su inteligencia y humanidad, y a nadie le interesa esto.

Inteligencia artificial sin contexto.

En la competición por liderar el mundo en inteligencia artificial (IA), Estados Unidos ha tomado un enfoque cauteloso. Las recientes órdenes ejecutivas del presidente Donald Trump establecen que su administración se opondrá a que los modelos futuros de IA consideren aspectos como la diversidad, equidad e inclusión. Esto implica dejar de lado conceptos fundamentales como el "sesgo inconsciente", la "interseccionalidad" y el "racismo sistémico". De forma resumida, Trump desea que la IA desarrollada en Estados Unidos ignore estos contextos históricos, lo que podría resultar en una disminución significativa de la inteligencia de dichos modelos.

Los chatbots generativos como ChatGPT, Gemini y Claude AI están entrenados utilizando grandes cantidades de datos, muchos de los cuales provienen de Internet; sin embargo, la interpretación de esos datos también depende de las decisiones de los desarrolladores. A medida que los usuarios comenzaron a interactuar con estos modelos, se hizo evidente que los sesgos inherentes a la red y la mayoría de los desarrolladores (en 2020, el 71% eran hombres y aproximadamente la mitad eran blancos) influían en la perspectiva y los resultados de las IA, reflejando visiones a menudo limitadas.

Se había intentado corregir esta tendencia, coincidiendo con la creciente importancia del DEI (Diversidad, Equidad e Inclusión), un movimiento que buscaba crear una fuerza laboral más diversa en las empresas. Esta diversidad debería traducirse en modelos de IA que representen mejor la realidad contemporánea. Sin embargo, la administración de Trump se opone a esta visión, calificando el DEI de una ideología "pervasiva y destructiva".

Aunque Trump y su equipo no pueden dictar cómo las empresas tecnológicas desarrollan sus modelos de IA, han influido en las decisiones de empresas como Google, Meta y OpenAI, que buscan contratos gubernamentales. Con base en las nuevas órdenes ejecutivas, se establece que el gobierno de EE. UU. no invertirá ni promoverá ninguna IA que priorice una agenda ideológica sobre la veracidad y precisión. Sin embargo, esta noción de "verdad" representa solo una parte de la realidad estadounidense. Si la administración tiene éxito, es probable que futuros modelos de IA carezcan de información sobre aspectos cruciales de la historia de EE. UU.

La Teoría Crítica de la Raza, que explora el papel del racismo en la fundación y desarrollo del país, reconoce la contribución de los esclavizados en la construcción de varias instituciones estadounidenses. En contraposición, ha habido esfuerzos constantes por parte de la administración Trump y sus seguidores para desmantelar los planes de estudio que incluyan esta temática.

Actualmente, modelos de IA como ChatGPT aún poseen información sobre estos temas. Por ejemplo, al consultar sobre el papel de los esclavizados en el desarrollo del país, ChatGPT proporciona respuestas detalladas sustentadas en investigaciones históricas. Estos modelos solo pueden hacer esto porque han sido entrenados con datos que contienen estas referencias históricas. Sin embargo, si la administración Trump logra que las empresas de IA eliminen las referencias a los sesgos y el racismo, habrá una falta de información significativa en los modelos creados en EE. UU.

Este camino plantea desafíos importantes. Si se producen modelos de IA sin considerar estos aspectos, se podrían generar resultados erróneos, especialmente si se aplicaran a modelos económicos. Se podría argumentar que modelos de IA desarrollados fuera de EE. UU. sin estas restricciones podrían ser más informados, aunque la IA en China también tiene importantes limitaciones en cuanto a la narrativa histórica por el control del Partido Comunista.

En resumen, el deseo de producir una IA "hecha en América" que no sea objeto de censura es un anhelo, pero si las empresas tecnológicas se ajustan a las nuevas órdenes ejecutivas y crean modelos que reflejen una visión distorsionada de la realidad, el resultado podría ser perjudicial para la comprensión y el desarrollo de la IA.