
El informe de seguridad prometido por xAI no ha aparecido.
La empresa de inteligencia artificial de Elon Musk, xAI, no logró cumplir con su propio plazo para publicar un marco finalizado sobre la seguridad en la inteligencia artificial, según informó un grupo de vigilancia.
Elon Musk's empresa dedicada a la inteligencia artificial, xAI, no ha logrado cumplir con un plazo autoimpuesto para presentar un marco finalizado de seguridad en IA, según ha informado un grupo de vigilancia. xAI no es particularmente conocida por su firme compromiso con la seguridad en inteligencia artificial, entendido de manera convencional. Un informe reciente reveló que el chatbot de la empresa, Grok, tiene la capacidad de desvestir fotos de mujeres si se le solicita. Además, Grok tiende a ser mucho más grosero que otros chatbots como Gemini y ChatGPT, utilizando malas palabras sin mucha moderación.
No obstante, en febrero, durante la Cumbre de IA en Seúl, un encuentro global de líderes y partes interesadas en IA, xAI presentó un borrador de marco que esbozaba su enfoque hacia la seguridad en IA. Este documento de ocho páginas delineaba las prioridades y la filosofía de seguridad de xAI, incluyendo sus protocolos de evaluación y consideraciones sobre el despliegue de modelos de IA. Sin embargo, el grupo de vigilancia destacó que el borrador solo se aplicaba a futuros modelos de IA no especificados "que no están actualmente en desarrollo”. Además, no se detalló cómo xAI planeaba identificar e implementar medidas de mitigación de riesgos, un aspecto fundamental del documento que la empresa firmó en la cumbre.
En el borrador, xAI mencionó que tenía la intención de divulgar una versión revisada de su política de seguridad “dentro de tres meses”, es decir, para el 10 de mayo. Sin embargo, ese plazo ha pasado sin que haya un reconocimiento por parte de los canales oficiales de xAI. A pesar de las advertencias frecuentes de Musk sobre los peligros de una IA sin control, xAI tiene un historial deficiente en cuanto a la seguridad de esta tecnología. Un estudio reciente realizado por SaferAI, una organización sin fines de lucro que busca mejorar la responsabilidad de los laboratorios de IA, indicó que xAI ocupa una posición baja frente a sus competidores debido a sus prácticas de gestión de riesgos "muy débiles".
No obstante, esto no implica que otros laboratorios de IA estén manejando la situación de manera significativamente mejor. En los últimos meses, rivales de xAI como Google y OpenAI han acelerado las pruebas de seguridad y han sido lentos en publicar informes de seguridad sobre sus modelos (o incluso han omitido su publicación por completo). Algunos expertos han expresado su preocupación de que la aparente despriorización de los esfuerzos de seguridad se esté dando en un momento en que la IA es más capaz —y, por lo tanto, potencialmente más peligrosa— que nunca.