Mark Zuckerberg, director ejecutivo de Meta, anunció cambios drásticos en las políticas de moderación de contenido de la empresa, culpando a los verificadores de datos por problemas en la moderación de Facebook.
Durante un video publicado recientemente, Zuckerberg declaró que "los verificadores de datos han sido demasiado sesgados políticamente" y que "destruyeron más confianza de la que crearon". Sin embargo, los grupos de verificación que trabajaron con Meta han rechazado estas afirmaciones.
"No creo que hayamos hecho nada, de ninguna forma, con sesgo", respondió Neil Brown, presidente del Instituto Poynter, una organización sin fines de lucro que dirige PolitiFact, uno de los socios verificadores de Meta. "Había una montaña de contenido por verificar, y tomábamos lo que podíamos."
La empresa anunció que eliminará su programa de verificación de datos con socios de confianza y lo reemplazará con un sistema impulsado por la comunidad, similar a las Notas Comunitarias de X (anteriormente Twitter).
El sistema actual de Meta, lanzado en 2016, trabajaba con más de 90 organizaciones verificadoras en más de 60 idiomas. Los verificadores independientes no tenían la capacidad de eliminar contenido, solo podían etiquetar las publicaciones como "Falsas", "Alteradas", "Parcialmente Falsas", "Falta Contexto", "Sátira" o "Verdaderas".
Los cambios afectarán a Facebook e Instagram, dos de las plataformas de redes sociales más grandes del mundo, así como a Threads. Meta también trasladará su equipo de seguridad y moderación de contenido de California a Texas.
Esta decisión se produce en medio de un contexto político cambiante y refleja un giro hacia lo que Zuckerberg describe como un retorno a las raíces de la empresa, enfocándose en "reducir errores, simplificar políticas y restaurar la libertad de expresión" en sus plataformas.