
La iniciativa de Meta para promover la "Libertad de Expresión" reduce drásticamente las eliminaciones de contenido.
Meta afirma que la flexibilización de sus políticas de moderación a principios de este año resultó en una disminución de retiradas incorrectas de contenido en Facebook e Instagram, sin aumentar significativamente la exposición de los usuarios a contenido perjudicial.
Meta anunció en enero que finalizaría algunos esfuerzos de moderación de contenido, aflojando sus normas y priorizando el apoyo a la "libre expresión". Este cambio resultó en la eliminación de menos publicaciones en Facebook e Instagram, según reveló la compañía en su informe trimestral sobre la aplicación de estándares comunitarios. Según Meta, sus nuevas políticas ayudaron a reducir a la mitad las eliminaciones erróneas de contenido en EE. UU., sin exponer a los usuarios a un mayor volumen de contenido ofensivo en comparación con el periodo anterior al cambio.
El informe, que fue mencionado en una actualización de un blog por el jefe de asuntos globales de Meta, Joel Kaplan, muestra que entre enero y marzo de este año, la empresa retiró alrededor de un tercio menos de contenido en ambas plataformas debido a violaciones de sus reglas, con aproximadamente 1.6 mil millones de ítems eliminados frente a casi 2.4 mil millones en el trimestre anterior. Durante varios trimestres anteriores, las eliminaciones trimestrales totales de la empresa habían aumentado o se mantenían estables.
A nivel global, Meta reportó que se eliminaron alrededor de un 50% menos de publicaciones por violaciones a las reglas de spam, casi un 36% menos por poner en peligro a niños, y casi un 29% menos por conductas de odio. Solo en una categoría significativa—contenido relacionado con el suicidio y autolesiones—se registró un aumento en las eliminaciones entre las 11 categorías que Meta lista.
La cantidad de contenido que Meta retira varía regularmente de un trimestre a otro, y varios factores pueden haber contribuido a la disminución en los retiros. Sin embargo, la propia compañía reconoció que “los cambios hechos para reducir los errores de aplicación” fueron una de las razones de esta fuerte caída. En su informe, Meta indicó que observó una disminución en la cantidad de contenido que se actúa, así como en el porcentaje de contenido que se retira antes de que los usuarios lo reporten.
A principios de año, Meta flexibilizó algunas normas sobre contenido que el CEO Mark Zuckerberg calificó de “desconectadas de la conversación mainstream”. Estas modificaciones permitieron que los usuarios de Instagram y Facebook usaran un lenguaje que muchos activistas de derechos humanos consideran odioso hacia inmigrantes o personas que se identifican como transgénero. Por ejemplo, ahora se permite hacer "alegaciones de enfermedad mental o anormalidad basadas en género u orientación sexual".
En este amplio cambio, que coincidió con el inicio del segundo mandato de Donald Trump, Meta dejó de depender en gran medida de herramientas automatizadas para identificar y retirar publicaciones que violaban levemente sus normas, ya que estas herramientas habían mostrado altas tasas de error, lo que causó frustración entre los usuarios. Durante el primer trimestre del año, un 97.4% del contenido eliminado de Instagram bajo las políticas de discurso de odio fue resultado de sistemas automatizados, una disminución de solo 1 punto porcentual respecto al final del año anterior. Sin embargo, las eliminaciones automatizadas por acoso en Facebook cayeron casi 12 puntos porcentuales.
Los usuarios pueden apelar las eliminaciones de contenido, y Meta a veces restituye publicaciones que considera han sido eliminadas erróneamente. En la actualización al blog de Kaplan, Meta destacó la significativa disminución de las eliminaciones erróneas. "Esta mejora sigue el compromiso que realizamos en enero de cambiar nuestro enfoque hacia la aplicación proactiva de violaciones de alta gravedad y mejorar nuestra precisión a través de auditorías del sistema y señales adicionales", indicó la empresa.
Algunos empleados de Meta expresaron su preocupación en enero sobre que estos cambios de política podrían llevar a un ambiente hostil en Facebook e Instagram, dificultando las conversaciones para los usuarios. Sin embargo, según su propia muestra, Meta estima que los usuarios fueron expuestos a entre una y dos piezas de contenido odioso, en promedio, por cada 10,000 publicaciones vistas en el primer trimestre, una baja respecto a entre dos a tres a finales del año anterior. Además, las plataformas de Meta han continuado creciendo, alcanzando aproximadamente 3.43 mil millones de personas en marzo utilizando al menos una de sus aplicaciones, que incluyen WhatsApp y Messenger, en comparación con los 3.35 mil millones de diciembre.