YouTube ahora permite una mayor difusión de desinformación perjudicial en su plataforma.
El cambio de política se realizó poco después de la reelección del presidente Trump.
YouTube ha decidido modificar sus políticas de moderación de contenido, siguiendo un enfoque similar al que han tomado otras plataformas como Meta y X. Según recientes materiales de capacitación interna, los moderadores ahora deben permitir que los videos permanezcan en línea incluso si hasta la mitad de su contenido infringe las normas de la plataforma, aumentando este límite que anteriormente era del 25%. Esta nueva política fue implementada a mediados de diciembre, poco después de la reelección del presidente Trump.
Las nuevas directrices de YouTube se centran en lo que esta considera "interés público". Este concepto abarca temas como elecciones, movimientos sociales, raza, género e inmigración. Nicole Bell, portavoz de YouTube, mencionó que el entendimiento de "interés público" está en constante evolución, lo que ha llevado a la actualización de sus guías para reflejar los nuevos tipos de conversaciones que emergen en la plataforma. Su objetivo sigue siendo proteger la libre expresión en YouTube, al mismo tiempo que mitiga los daños graves.
Al ser consultada, Bell proporcionó más información sobre el razonamiento detrás de esta decisión. Comentó que YouTube actualiza regularmente sus Directrices de la Comunidad para adaptarse al contenido que se presenta en su plataforma. A principios de este año, se retiraron las políticas restantes relacionadas con COVID-19 y se implementaron nuevas protecciones para el contenido relacionado con el juego. Bell también aclaró que el artículo menciona un aspecto diferente de su enfoque: la práctica de aplicar excepciones a las políticas para contenidos que sirven al interés público o tienen contexto EDSA (educativo, documental, científico, artístico). Aunque estas excepciones se aplican a una pequeña fracción de los videos, son cruciales para mantener disponible contenido importante. Esto es esencial para evitar situaciones en las que un extenso podcast de noticias sea eliminado por mostrar un breve clip de violencia.
A pesar de estas estrategias, YouTube ha reportado un aumento del 22% en la eliminación de videos debido a contenido abusivo y de odio en comparación con el año pasado. No está claro cuántos videos fueron denunciados o habrían sido eliminados bajo las pautas anteriores.
Los moderadores han recibido instrucciones de priorizar la publicación de contenido en situaciones donde se debate entre la libertad de expresión y el riesgo potencial. Un ejemplo incluía un video titulado "RFK Jr. Delivers SLEDGEHAMMER Blows to Gene-Altering JABS", que hacía afirmaciones falsas sobre las vacunas COVID-19. YouTube indicaba que el interés público en este caso "superaba el riesgo de daño", permitiendo que el video permaneciera disponible, aunque fue eliminado más tarde sin un motivo claro. Otros videos que se han permitido incluyen uno con un insulto dirigido a una persona trans y otro donde un comentarista discutía una muerte gráfica del ex presidente surcoreano Yoon Suk Yeol.