Facebook muestra qué contenido es el que no nos muestra

A finales de septiembre Facebook hizo públicas sus normas de distribución de contenido, las pautas que sigue para limitar el alcance de las publicaciones en la sección de noticias (Newsfeed). El contenido del que tratan estas normas no es eliminado porque no infringe las políticas de Facebook, pero por considerarse “problemático” tiene una visibilidad menor. Hasta ahora, las pautas por las que Facebook filtraba las publicaciones para darles mayor o menor alcance se conocían sólo parcialmente por algunas declaraciones en informes y eran con frecuencia objeto de especulación. 

 

Las pautas abarcan treinta categorías de publicaciones que se limitan, incluyendo desde granjas de anuncios, publicaciones que dirigen a páginas saturadas de publicidad, hasta contenido publicado por usuarios que han infringido las políticas reiteradamente.

 

Facebook no es la primera plataforma que da a conocer las clases de contenido a las que le dará un menor alcance. Algunas reglas de Twitter, como la de contenidos multimedia falsos y alterados o la de integridad cívica, contemplan como sanciones la reducción de la visibilidad de un trino o la privación de la posibilidad de recomendarlo.

 

Escepticismo sobre la transparencia

Si bien es útil que las plataformas entreguen información sobre su funcionamiento, en general, estas señales de transparencia de las plataformas suelen recibirse con escepticismo.

 

Luego de que durante meses Kevin Roose, periodista del New York Times, publicara listados que daban cuenta de que las publicaciones con mayor interacción en Estados Unidos provenían de cuentas de políticos y medios de comunicación asociados a la derecha, Facebook decidió presentar su primer informe trimestral sobre el contenido más visto en este país. Sin embargo, los resultados de ese informe no estuvieron exentos de críticas y más bien levantaron sospechas. A muchos les sorprendió que la compañía afirmara que el ranking del contenido más visto estuviera encabezado por la imagen de una sopa de letras y que las demás publicaciones del listado fueran igual de triviales como discusiones sobre si el espagueti debería o no llevar azúcar.

 

Por otra parte, aunque el informe se presentó como una muestra de transparencia de la compañía, algunos lo han visto justamente como lo contrario. Según el New York Times, Facebook había preparado un documento de este tipo para el primer trimestre del año, pero decidió archivarlo porque los resultados no le favorecían. De acuerdo con el medio, el informe revelaba que el enlace más visto en la plataforma era un artículo cuyo titular sugería que un médico había muerto como consecuencia de la aplicación de una vacuna contra el Covid-19.

 

Finalmente, aunque Facebook es usado por más de 2,800 millones de usuarios alrededor del mundo, la compañía solo parece estar dispuesta a revelar cuál contenido más visto en Estados Unidos, su segundo mercado más importante después de la India.

 

¿Qué se puede decir sobre la nueva información?

Con la publicación de las normas sobre contenido problemático también se pueden hacer cuestionamientos. Las normas de distribución de contenido se fijan especialmente en la “baja calidad” de las publicaciones. Bajo esa noción, Facebook cuenta con políticas para reducir la visibilidad de comentarios, eventos, videos y experiencias de navegación. Sin embargo, no se aclara con criterios suficientes cómo se evalúa la calidad de una publicación.

 

No hay suficiente información respecto a la severidad de estas decisiones. Nada indica si un titular con clickbait tiene menor alcance que la “información errónea verificada” o si un “artículo de noticias de autoría poco transparente” tiene más probabilidad de ser visto que una publicación comercial sobre salud. Tampoco se habla de la dimensión de las sanciones, es decir, qué tanto impactará el alcance de una publicación.

 

La divulgación de las normas de distribución de contenido es un paso en la transparencia de la compañía, pero queda por ver si los datos sobre su aplicación serán reportados en los informes de transparencia que Facebook publica trimestralmente con información sobre la cantidad de publicaciones eliminadas por infringir sus normas comunitarias. Además, habrá que esperar para conocer si la compañía planea revelar la forma en la que modera el alcance de los contenidos en otras secciones de su plataforma, como Facebook Watch.

 

El hecho de que los contenidos problemáticos sean limitados, pero no eliminados, plantea nuevas preguntas sobre los derechos de los usuarios. Esta medida limita la posibilidad de que los contenidos sean conocidos por otros, pero a diferencia de lo que ocurre con quienes infringen las normas comunitarias, no se les notifica sobre la medida que se les impone, no se le da explicaciones ni se le ofrece la opción de apelar.

 

Tabla de contenidos