
Cloud Hypervisor rechaza el código de inteligencia artificial.
Cloud Hypervisor expresa su preocupación por los peligros asociados al código de inteligencia artificial.
Cloud Hypervisor, un proyecto bajo el ala de The Linux Foundation, ha decidido implementar una política que rechaza todo código generado por inteligencia artificial. Esto incluye cualquier contribución que se conozca que haya sido producida o derivada de herramientas de inteligencia artificial, como ChatGPT, Gemini, Claude y Copilot. La decisión responde a la necesidad de evitar problemas de cumplimiento de licencias y a la intención de reducir la carga de revisión y mantenimiento del código en el futuro.
Desde su inicio en 2018, gracias a la colaboración de compañías como Google, Intel, Amazon y Red Hat, Cloud Hypervisor ha evolucionado significativamente. Sin embargo, los responsables del proyecto han manifestado su preocupación por los riesgos legales que trae el uso de código que podría estar protegido por derechos de autor y que a veces aparece en el código generado por IA.
A pesar de la decisión drástica, los líderes del proyecto reconocen los beneficios en la economía de tiempo que puede ofrecer la inteligencia artificial. No se descartan revisiones a esta política en el futuro, ya que podría ajustarse a medida que los modelos de lenguaje grande (LLMs) maduren y evolucionen.
El uso de inteligencia artificial en el desarrollo de código no es exclusivo de Google; también se ha observado que entre el 20% y el 30% del código para algunos proyectos de Microsoft es generado por IA. Por su parte, Meta anticipa que la IA podría llevar a cabo hasta la mitad del trabajo de desarrollo en un futuro cercano. No obstante, Red Hat ha señalado los peligros asociados con el código generado por inteligencia artificial, como la posibilidad de vulnerabilidades, problemas de calidad y riesgos relacionados con las licencias.