
El nuevo modelo de inteligencia artificial de Ai2 supera a modelos de tamaño similar de Google y Meta.
Parece que esta es la semana de los pequeños modelos de IA. El jueves, el instituto de investigación en IA sin fines de lucro Ai2 presentó Olmo 2 1B, un modelo que cuenta con 1.000 millones de parámetros.
Recientemente, Ai2, un instituto de investigación en inteligencia artificial sin fines de lucro, lanzó Olmo 2 1B, un modelo de 1.000 millones de parámetros. Según Ai2, este nuevo modelo supera a otros similares de grandes empresas como Google, Meta y Alibaba en diversas pruebas de evaluación. Los parámetros, también conocidos como pesos, son elementos internos que determinan el comportamiento de un modelo.
Olmo 2 1B se encuentra disponible bajo una licencia flexible Apache 2.0 en la plataforma de desarrollo de inteligencia artificial Hugging Face. Un aspecto destacable de este modelo es que se puede reproducir desde cero; Ai2 ha hecho accesible el código y los conjuntos de datos (Olmo-mix-1124 y Dolmino-mix-1124) utilizados en su desarrollo. A pesar de que los pequeños modelos no alcanzan la capacidad de los más grandes, su principal ventaja es que no requieren hardware potente para funcionar, lo que los hace más accesibles para desarrolladores y entusiastas que trabajan con máquinas de gama baja o de consumo.
En los últimos días, hemos visto el lanzamiento de varios modelos pequeños, incluyendo la familia de razonamiento Phi 4 de Microsoft y Qwen’s 2.5 Omni 3B. La mayoría de estos modelos, incluido Olmo 2 1B, pueden funcionar sin problemas en computadoras portátiles modernas o incluso en dispositivos móviles.
Ai2 detalla que su modelo fue entrenado con un conjunto de datos que contiene 4 billones de tokens, provenientes de fuentes públicas, generadas por inteligencia artificial y creadas manualmente. Cabe recordar que un token representa una unidad de datos, y 1 millón de tokens equivalen a aproximadamente 750.000 palabras. En una evaluación de razonamiento aritmético, conocida como GSM8K, Olmo 2 1B obtenía resultados superiores a los de modelos como Gemma 3 1B de Google, Llama 3.2 1B de Meta y Qwen 2.5 1.5B de Alibaba. Asimismo, este modelo sobresale en la prueba TruthfulQA, que evalúa la precisión factual.
Sin embargo, Ai2 advierte que Olmo 2 1B puede generar "resultados problemáticos", incluyendo contenidos perjudiciales y "sensibles", así como afirmaciones inexactas. Debido a estos riesgos, se desaconseja su uso en entornos comerciales.