
Los últimos modelos de OpenAI rompen esquemas en la competencia de pesos abiertos con afirmaciones audaces, hardware optimizado y un objetivo del tamaño de DeepSeek.
Optimizado para entornos con pocos recursos, aunque los resultados de las pruebas no son del todo claros.
OpenAI ha presentado dos nuevos modelos de pesos abiertos, gpt-oss-120B y gpt-oss-20B, que se plantean como competidores directos de opciones como DeepSeek-R1, así como de otros modelos de lenguaje grande que están influyendo en el ecosistema de la inteligencia artificial. Estos modelos están disponibles a través de las plataformas de inteligencia artificial Amazon Bedrock y Amazon SageMaker de AWS, marcando así la incursión de OpenAI en el segmento de modelos de pesos abiertos, hasta ahora dominado por competidores como Mistral AI y Meta.
El modelo gpt-oss-120B puede operar en una única GPU de 80 GB, mientras que la versión de 20B está diseñada para entornos periféricos, requiriendo únicamente 16 GB de memoria. OpenAI asegura que ambos modelos ofrecen un rendimiento de razonamiento sólido, alcanzando o superando al modelo o4-mini en métricas clave. Sin embargo, todavía no se han realizado evaluaciones externas, lo que deja su rendimiento real en diferentes cargas de trabajo sujeto a revisión.
Una de las características que distingue a estos modelos es su licencia. Lanzados bajo Apache 2.0, se busca reducir las barreras de acceso y fomentar un desarrollo más amplio de la inteligencia artificial, especialmente en entornos con alta seguridad o recursos limitados. Según OpenAI, esta estrategia se alinea con su misión más amplia de hacer herramientas de inteligencia artificial más utilizables en diversas industrias y geografías.
En AWS, los modelos están integrados en la infraestructura empresarial a través de Amazon Bedrock AgentCore, lo que permite la creación de agentes de IA capaces de realizar flujos de trabajo complejos. OpenAI sugiere que estos modelos son adecuados para tareas como generación de código, razonamiento científico y resolución de problemas en múltiples pasos, particularmente donde se requiere razonamiento ajustable y salidas de cadena de pensamiento. Además, su ventana de contexto de 128K admite interacciones más largas, como análisis de documentos o tareas de soporte técnico.
Los modelos también se integran con herramientas de desarrollo, apoyando plataformas como vLLM, llama.cpp y Hugging Face. Con características como Guardrails y la próxima incorporación de modelos personalizados e bases de conocimiento, OpenAI y AWS están presentando esto como una base lista para desarrolladores para la creación de aplicaciones de IA escalables. No obstante, el lanzamiento se percibe parcialmente como estratégico, posicionando a OpenAI como un actor clave en la infraestructura de modelos abiertos, mientras vincula más estrechamente su tecnología a Amazon Web Services, un líder en computación en la nube.