Desinformación y autenticidad

Facebook, Twitter y YouTube tienen normas para controlar la desinformación y la actividad inauténtica. Las políticas se concentran principalmente en controlar la autenticidad de las cuentas, las métricas y las interacciones, más que en la veracidad de los contenidos. Sin embargo, con ocasión de la pandemia del COVID-19, las plataformas han tomado más medidas relacionadas con contenidos que se han anunciado principalmente en los blogs de las compañías y no en las normas comunitarias. Para más información, ver este paper sobre el tema.

Este artículo trata sobre la regulación actual de estos contenidos por parte de las plataformas y muestra el historial de los cambios más relevantes. Para el detalle de los cambios, ver Cambios en desinformación y autenticidad.

Facebook

Regulación actual

Facebook tiene cinco políticas relacionadas con la desinformación y la actividad inauténtica en la plataforma:

  • Integridad de la cuenta y autenticidad de identidad: Facebook exige que sus usuarios usen su nombre real y prohíbe las cuentas que suplanten la identidad de otras personas o entidades. También prohíbe crear una cuenta que represente a más de una persona o que sea usada por varios usuarios. Facebook elimina las cuentas que infrinjan grave o reiteradamente sus políticas y las cuentas, páginas, grupos o eventos que se creen para eludir las sanciones impuestas por la plataforma. Finalmente, bajo esta política Facebook prohíbe la creación de cuentas a menores de 13 años y delincuentes condenados por delitos sexuales.
  • Spam: Facebook prohíbe la distribución masiva de contenido para obtener beneficios comerciales y el contenido que busque engañar o confundir a los usuarios para aumentar clics, visualizaciones o seguidores. Por ejemplo, no se permite requerir que los usuarios indiquen que una publicación les gusta antes de poder acceder a contenido fuera de Facebook o incluir un enlace que promete un tipo de contenido, pero muestra algo distinto. Bajo esta política, Facebook también prohíbe interactuar con contenido y crear cuentas, grupos, páginas y eventos con una frecuencia muy alta.
  • Comportamiento no auténtico: Facebook prohíbe participar o afirmar que se participar en un comportamiento no auténtico (usar sus cuentas, páginas, grupos o eventos para engañar a las personas respecto de la identidad, el propósito, el origen, la popularidad de tales recursos), en un comportamiento no auténtico coordinado (el uso no auténtico de recursos en conjunto a través de cuentas falsas) o en actos de injerencia extranjera o gubernamental (comportamiento no auténtico coordinado realizado en nombre de un agente extranjero o gobierno). Bajo esta política también se prohíbe usar los sistemas de reporte para acosar a otras personas, así como compartir cuentas y evadir las sanciones de Facebook por el incumplimiento de sus normas (estas dos últimas prohibiciones también están establecidas en su política sobre Integridad de la cuenta y autenticidad de identidad).
  • Noticias falsas: De acuerdo con esta política, Facebook no elimina las noticias falsas de su plataforma. En cambio, reduce la distribución de contenido que  sea calificado como falso por los verificadores de datos independientes.
  • Contenido multimedia manipulado: Facebook prohíbe la publicación de videos editados o generados con inteligencia artificial que se difunden para engañar a las personas. La política no aplica para parodias o sátiras en las que se edita el contenido para omitir palabras pronunciadas o cambiar su orden.

Reporte y aplicación de reglas

Las normas comunitarias de Facebook dan poca información sobre el reporte de violaciones y los procesos de sanción por infracciones:

  • En la política de Integridad de la cuenta y autenticidad de identidad, Facebook explica busca darle a las comunidad la oportunidad de aprender las reglas antes de optar por la eliminación de las cuentas. En cambio, busca que las penalidades sean proporcionales a la gravedad de la violación y al riesgo de daño que se causa a la comunidad.
  • En esta misma política, Facebook sostiene que “en ciertos casos” busca más información sobre una cuenta antes de tomar acciones. Sin embargo, no explica en qué tipos de casos.
  • En la política sobre Noticias falsas, Facebook explica que reduce la distribución de noticias que hayan sido señaladas como falsas por verificadores de datos independientes (fact-checkers), aliados de Facebook. En esta misma política, Facebook dice que usa “varias señales”, incluyendo las opiniones de la comunidad, como base para un modelo de aprendizaje automático que predice qué historias podrían ser falsas.
  • En su política sobre Contenido multimedia manipulado, Facebook dice que requiere información o contexto adicionales para hacer cumplir las normas.

 

De estas políticas, Facebook incluye únicamente la de Spam en sus informes de transparencia. De acuerdo con Facebook, la tasa de detección proactiva de infracciones (es decir, el porcentaje de contenido infractor que fue encontrado por Facebook antes de ser reportado por los usuarios) entre 2017 y 2021 se ha mantenido entre el 99,7 y 99,9%.

Historial de cambios

  • En julio de 2019, Facebook modificó su política sobre Integridad de la cuenta y autenticidad de identidad para prohibir la creación y administración de páginas, grupos, eventos o perfiles para reemplazar uno que haya sido retirado del sitio.
  • En octubre de 2019, creó su política sobre . Además de tomar reglas antes establecidas en la política sobre Integridad de la cuenta y autenticidad de identidad, la nueva política estableció nuevas prohibiciones: usar múltiples cuentas de Facebook o compartir cuentas entre personas, abusar de los sistemas de reporte para acosar a otras personas y participar o decir que se participa en injerencia internacional o del gobierno.
  • En noviembre de 2019, Facebook modificó la política sobre Comportamiento no auténtico para prohibir el encubrimiento del propósito de una página engañando a los usuarios sobre quién tiene la propiedad o el control de la página. El cambio se hizo en la versión en español en junio de 2020.
  • En enero de 2020, Facebook lanzó su política sobre Contenido multimedia manipulado.
  • En diciembre de 2020, en la política sobre Integridad de la cuenta y autenticidad de identidad se incluyó que Facebook desactivará la cuentas que pertenezcan a personas que han sido condenadas por delitos sexuales o a quienes se les haya prohibido legalmente usar estos servicios.

Twitter

Regulación actual

Twitter tiene cuatro políticas relacionadas con la desinformación y la actividad inauténtica en la plataforma:

  • Política relativa al spam y la manipulación de la plataforma: Twitter prohibe comportamientos en tres grandes áreas:
    • Cuentas e identidad: no se permite engañar a otros a través de cuentas falsas, usar información de cuenta engañosa para llevar a cabo acciones de spam y amplificar u obstaculizar de forma artificial las conversaciones mediante la creación y uso coordinado de cuentas.
    • Interacciones y métricas: no se permite aumentar de forma artificial el número de seguidores y otras métricas (retweets, me gusta, etc.), lo que incluye coordinar acciones como los “trenes de seguidores” en la que usuarios aumentan recíprocamente sus seguidores aceptando seguirse entre ellos.
    • Uso indebido de las funciones de los productos de Twitter: no se permite usar las funciones de los productos de Twitter para obstaculizar la experiencia de otros. Por ejemplo, enviar mensajes no solicitados de manera masiva, seguir y luego dejar de seguir a un gran número de cuentas para intentar aumentar el número de seguidores y publicar URLs engañosos.

No incumple la política el uso de seudónimos o la creación de cuentas de parodias, comentarios o admiradores. Tampoco la coordinación entre personas para expresar ideas, puntos de vista, puntos de vista, apoyo y oposición hacia una causa.

Reporte y aplicación de reglas

Cualquier persona puede denunciar un incumplimiento a la Política relativa al spam y la manipulación de la plataforma. En algunos casos, Twitter puede bloquear temporalmente las cuentas y solicitar información adicional (ej.: un número de teléfono o un documento de identidad) o pruebas antispam (ej.: un reCAPTCHA) para verificar que la actividad no es automatizada. Además, Twitter puede:

  • Rechazar una URL o proporcionar advertencias sobre URLs que pueden ser inseguras.
  • Eliminar trinos y bloquear cuentas temporalmente, en el caso de incidentes aislados y primeras ofensas.
  • Pedir que se elija una cuenta, en caso de identificar un incumplimiento relacionado con el uso de varias cuentas.
  • Suspender cuentas permanentemente en caso de incumplimiento graves (ej.: administración de cuentas dedicadas a incumplir las reglas, comprar o vender cuentas, crear cuentas para reemplazar una cuenta suspendida).

En el caso de la Política de suplantación de identidad, las víctimas de suplantación o un representante autorizado pueden hacer una denuncia. También pueden hacer otros usuarios de la plataforma. En estos casos, Twitter suspende las cuentas.

De la política sobre contenido manipulado de Twitter.

 

Si hay incumplimientos a la Política relativa a los contenidos multimedia falsos y alterados, Twitter puede etiquetar o remover el contenido, dependiendo de (i) si el contenido es falso o está alterado, (ii) si se compartió de manera engañosa o (iii) si tiene un impacto en la seguridad pública o provoca daños graves. En su política, Twitter presenta los criterios que tiene en cuenta para evaluar estas tres variables. Las cuentas que incumplan grave o reiteradamente la política podrán suspenderse de manera permanente.

Finalmente, la violación a la Política de apropiación de nombres de usuario darán lugar a la suspensión permanente de la cuenta.

En su último reporte de transparencia sobre manipulación de la plataforma, correspondiente al primer semestre de 2020, Twitter informó que las denuncias de spam habían incrementado un 16% en comparación al periodo anterior. Según la plataforma, este aumento responde al crecimiento de la plataforma a comienzos de 2020, cuando muchos usuarios nuevos se registraron para tomar parte en las discusiones sobre problemas mundiales, como la pandemia.

En estos reportes, Twitter utiliza la categoría «objeciones antispam» para referirse a los métodos utilizados para detectar la manipulación, como pruebas reCAPTCHA o solicitudes para que los usuarios verifiquen los datos de sus cuentas. En el último reforme de transparencia, Twitter informó que las objeciones antispam habían aumentado un 54% respecto al semestre anterior.

Historial de cambios

YouTube

Regulación actual

YouTube tiene cinco políticas relacionadas con la desinformación y la actividad inauténtica en la plataforma:

  • Políticas sobre spam, prácticas engañosas y estafas: YouTube prohíbe los videos de spam, las miniaturas (snippets) o metadatos engañosos, el material multimedia manipulado, las estafas, la distribución de material hackeado, los comentarios repetitivos y el abuso durante transmisiones en vivo. 
  • Política sobre el robo de identidad: YouTube prohíbe el contenido creado con la intención de hacerse pasar por otra persona o canal.
  • Política sobre interacciones falsas: YouTube prohíbe aumentar artificialmente el número de visualizaciones, me gusta, comentarios y otras métricas de video. Tampoco permite el contenido creado con el único objetivo de conseguir interacciones de los espectadores y los ofrecimientos de suscripción a otro canal a cambios de suscripción al canal propio (práctica conocida como “sub4sub”).
  • Vínculos en tu contenido: YouTube prohíbe que se publiquen links en los videos, descripciones, comentarios y transmisiones en vivo que lleven a contenidos que infrinjan las normas comunitarias. Se prohíben links a sitios web o aplicaciones con pornografía, software malicioso, imágenes de abuso sexual infantil, artículos incluidos en las reglas sobre bienes regulados, así como sitios o apps de suplantanción de identidad (phishing), que brinde acceso gratuito a contenido que suele requerir pago o que recauden fondos o recluten personas para organizaciones terroristas.
  • Información errónea: YouTube prohíbe la divulgación de contenido que pueda generar un daño. Se sanciona la publicación de curas o remedios peligrosos, contenido que puede afectar el correcto desarrollo de un censo y el contenido manipulado o modificado con el objetivo de engañar al usuario. Bajo esta política, YouTube también prohíbe atribuir falsamente que un video pasado corresponde a un evento actual.

Reporte y aplicación de reglas

En caso de infracciones a cualquiera de estas políticas, YouTube remueve el contenido y envía un correo electrónico para notificar a quien lo publicó. Si es la primera vez que el usuario comete una infracción, YouTube añade una advertencia. Si no es la primera vez, añade una falta al canal. Ante tres faltas aplicadas en 90 días, YouTube elimina el canal.

De acuerdo con el último reporte de transparencia de YouTube, el spam, los engaños y trampas son las principales causas para la eliminación de canales (85% de los casos) y comentarios (55,4%). En cuanto a los videos, el 7,9% son retirados por estas razones. 

Historial de cambios

Véase también

Tabla de contenidos