
Expertos señalan que el último informe del modelo de IA de Google carece de detalles importantes sobre seguridad.
Expertos señalan que el informe técnico del más reciente modelo de inteligencia artificial de Google, Gemini 2.5 Pro, no incluye información crucial sobre la seguridad.
Recientemente, Google presentó un informe técnico sobre su modelo de inteligencia artificial más potente hasta la fecha, Gemini 2.5 Pro, semanas después de su lanzamiento. Sin embargo, este documento ha sido criticado por su falta de detalles, según expertos, lo que dificulta la evaluación de los riesgos que podría representar el modelo. Los informes técnicos suelen ofrecer información valiosa y a veces poco halagadora que las compañías no siempre difunden ampliamente acerca de sus sistemas de IA. Generalmente, la comunidad de IA considera estos informes como esfuerzos de buena fe para respaldar investigaciones independientes y evaluaciones de seguridad.
El enfoque de Google en la presentación de informes de seguridad se distingue de algunos de sus competidores en el ámbito de la inteligencia artificial, ya que solo publica estos documentos una vez que un modelo ha pasado de la fase “experimental”. Además, la empresa no incluye en estos informes los hallazgos de todas sus evaluaciones sobre capacidades consideradas “peligrosas”, reservando esos resultados para auditorías separadas. Varios expertos han expresado su decepción por la escasez de información en el informe de Gemini 2.5 Pro, notando que no menciona el Marco de Seguridad Frontier (FSF) presentado por Google el año anterior para identificar capacidades de IA futuras que podrían causar “daños severos”.
Peter Wildeford, cofundador del Instituto para la Política y Estrategia de IA, destacó que el contenido del informe es mínimo y llegó semanas después de la disponibilidad pública del modelo, lo que complica la verificación de si Google cumple con sus compromisos de seguridad. Por su parte, Thomas Woodside, cofundador del Secure AI Project, admitió que, aunque valora la publicación del informe, tiene dudas sobre el compromiso de Google con evaluaciones de seguridad adicionales en tiempos razonables. Woodside mencionó que la última vez que Google compartió resultados de pruebas sobre capacidades peligrosas fue en junio de 2024, para un modelo que había sido anunciado en febrero de ese mismo año.
La falta de un informe para Gemini 2.5 Flash, un modelo más pequeño y eficiente, también genera incertidumbre. Un portavoz de Google indicó que un informe para este modelo está "en camino". Woodside espera que esto signifique un aumento en la frecuencia de las actualizaciones publicadas, sugiriendo que deberían incluir evaluaciones de modelos aún no desplegados públicamente, ya que también podrían representar riesgos significativos.
A pesar de ser uno de los primeros laboratorios de IA en proponer informes estandarizados, Google no es el único que ha sido señalado por no ser completamente transparente. Meta, por ejemplo, lanzó una evaluación de seguridad similarmente limitada para sus nuevos modelos de Llama 4, y OpenAI no publicó ningún informe para sus series de GPT-4.1. Google tiene la responsabilidad de honrar las promesas hechas a los reguladores sobre mantener estándares altos de seguridad en sus pruebas y reportes de IA, habiendo garantizado al gobierno de EE. UU. que publicaría informes de seguridad para todos los modelos públicos “significativos”.
Kevin Bankston, asesor senior sobre gobernanza de IA en el Centro para la Democracia y la Tecnología, advirtió que la tendencia de informes esporádicos y vagos se asemeja a una “carrera hacia el fondo” en términos de seguridad de la IA. Comentó que, sumado a que otros laboratorios como OpenAI han reducido drásticamente los tiempos de pruebas de seguridad antes de sus lanzamientos, la limitada documentación del modelo de IA más avanzado de Google sugiere una preocupante historia sobre el apuro de las empresas por llevar sus modelos al mercado, descuidando la seguridad y la transparencia.
Google ha declarado que, aunque no se detallan en sus informes técnicos, realiza pruebas de seguridad y “red teaming adversarial” para los modelos antes de su lanzamiento.