¿Por qué Meta eliminó menos publicaciones durante el primer trimestre de 2025?

¿Por qué Meta eliminó menos publicaciones durante el primer trimestre de 2025?

Foto: NotiPress

Durante el primer trimestre de 2025, Meta redujo de forma significativa la cantidad de contenido eliminado en sus principales plataformas. Según datos presentados en su "Informe de Cumplimiento de Normas Comunitarias", la cifra de publicaciones eliminadas en Facebook e Instagram cayó de casi 2,400 millones a alrededor de 1,600 millones, lo que representa una reducción de casi un tercio respecto al trimestre anterior.

 

Este descenso coincide con los cambios anunciados por la empresa a principios 2025, orientados a relajar sus políticas de moderación y reforzar su compromiso con la libre expresión. La compañía explicó que su nuevo enfoque se centró en evitar errores de aplicación y mejorar la precisión mediante auditorías internas y señales adicionales.

 

La caída en las eliminaciones no se limitó a una sola categoría. En la sección relacionada con spam, las remociones disminuyeron 50%. Las publicaciones que ponían en riesgo a menores bajaron cerca de 36%, y las conductas consideradas de odio registraron un descenso cercano al 29%. Solo en una categoría se detectó un incremento: los contenidos vinculados a suicidio y autolesiones.

 

Una entrada de blog actualizada por Joel Kaplan, jefe de asuntos globales de Meta, reveló que se redujo también la cantidad de contenido apelado y posteriormente restaurado. Según la empresa, esto es resultado directo del cambio en su estrategia de moderación, orientada a reducir las acciones sobre publicaciones erróneas.

 

Los ajustes incluyeron la eliminación de herramientas automatizadas de verificación de datos que solían utilizarse para aplicar sanciones ante infracciones menores. Meta argumentó que estas herramientas presentaban tasas elevadas de error, provocando frustración entre los usuarios. Además, dejó de colaborar con algunos verificadores externos en ciertas políticas.

 

En Instagram, los sistemas automatizados siguieron desempeñando un papel predominante en la detección de discursos de odio, con un 97.4% del total de eliminaciones atribuidas a estos mecanismos. Esta cifra representa apenas un punto porcentual menos que el trimestre previo. En cambio, Facebook registró una disminución más marcada en eliminaciones automáticas por acoso e intimidación, con una baja cercana a los 12 puntos porcentuales.

 

La exposición de los usuarios a contenido ofensivo se mantuvo estable. Según estimaciones de Meta, el promedio fue de una o dos piezas de contenido de odio por cada 10,000 publicaciones vistas, ligeramente inferior al rango de dos a tres del trimestre anterior.

 

Los cambios regulatorios no detuvieron el crecimiento de las plataformas de la compañía. En marzo de 2025, unos 3,430 millones de personas utilizaron al menos una de las aplicaciones de Meta, incluidas WhatsApp y Messenger, superando los 3,350 millones registrados en diciembre del año anterior.

 

A medida que Meta redefine su política de moderación en favor de una menor intervención, sus decisiones reconfiguran silenciosamente el equilibrio entre vigilancia digital y expresión en línea. Las cifras reflejan una nueva fase para sus plataformas, donde la precisión técnica y el volumen de acciones moderadoras toman un rumbo distinto al observado en años recientes. (NotiPress)

Notas Relacionadas