Cover Image for YouTube se prepara para intensificar la vigilancia sobre los videos 'produzidos en masa' y 'repetitivos', ante el aumento de preocupaciones por contenido generado por inteligencia artificial.

YouTube se prepara para intensificar la vigilancia sobre los videos 'produzidos en masa' y 'repetitivos', ante el aumento de preocupaciones por contenido generado por inteligencia artificial.

El representante de creadores de YouTube afirmó que la modificación es un ajuste "menor" en las políticas tradicionales de la plataforma.

YouTube está en proceso de actualizar sus políticas con el objetivo de restringir la capacidad de los creadores para generar ingresos a partir de contenido que sea considerado “inauténtico”. Esto incluye videos producidos en masa y otros tipos de contenido repetitivo, facilitados por la tecnología de inteligencia artificial. El 15 de julio, la plataforma implementará cambios en el programa de monetización YouTube Partner Program (YPP), con nuevas directrices que especifican qué tipos de contenido pueden generar ingresos para los creadores y cuáles no.

Aunque aún no se han dado a conocer los detalles exactos de las nuevas políticas, en la documentación de ayuda de YouTube se menciona que siempre se ha requerido a los creadores que suban contenido "original" y "auténtico". La actualización busca aclarar cómo se define hoy en día el contenido “inauténtico”. Algunos creadores expresaron su preocupación de que estos cambios pudieran limitar la monetización de videos, como los de reacciones o aquellos que utilizan fragmentos de otros contenidos. Sin embargo, Rene Ritchie, responsable de relaciones editoriales y con creadores de YouTube, aclaró que esta modificación es simplemente una “actualización menor” destinada a identificar mejor cuándo el contenido es producido en masa o repetitivo. Además, Ritchie destacó que este tipo de contenido ha sido considerado inelegible para la monetización durante años, ya que frecuentemente es visto por los usuarios como spam.

Lo que Ritchie no menciona es la facilidad que ofrece la tecnología actual para crear ese tipo de videos. Con el auge de la inteligencia artificial, YouTube ha visto un incremento en contenido de baja calidad, conocido como “AI slop”, que se refiere a medios generados a través de inteligencia artificial. Por ejemplo, es común encontrar voces generadas por AI overlay en fotos, fragmentos de video u otros contenidos reaprovechados gracias a herramientas de texto a video. Algunos canales dedicados a música generada por AI han alcanzado millones de suscriptores. Asimismo, videos falsos sobre eventos actuales, como el juicio de Diddy, han acumulado millones de visualizaciones. Un caso notable es un popular serie de crímenes verdaderos que resultó ser completamente generada por AI, como se reportó a principios de este año. Incluso la imagen del CEO de YouTube, Neal Mohan, fue utilizada en un intento de phishing generado por AI, a pesar de que existen herramientas para que los usuarios informen sobre videos deepfake.

Aunque YouTube presente estos cambios como una “actualización menor” o una aclaración, la realidad es que permitir que este tipo de contenido prospere y que sus creadores obtengan beneficios podría dañar la reputación y el valor de la plataforma. Por lo tanto, no es sorprendente que la empresa busque establecer políticas claras que le permitan llevar a cabo prohibiciones masivas de creadores de “AI slop” dentro del YPP.