Press "Enter" to skip to content

Cómo las cuentas falsas que empujan contenido inflamatorio se volvieron virales, con la ayuda de los algoritmos de YouTube

Muchas de las cuentas, que utilizaron principalmente imágenes de CNN, pero también emplearon algunos videos de Fox News, explotaron una función de YouTube que automáticamente crea canales sobre ciertos temas. Esos canales de temas se rellenan automáticamente con videos relacionados con el tema, que incluyen, en este caso, información errónea evidente. YouTube ahora ha cerrado muchas de las cuentas.

Los propios algoritmos de YouTube también recomendaron videos de los canales a usuarios estadounidenses que vieron videos sobre la política estadounidense. El hecho de que los canales pudieran lograr tal viralidad (un canal fue visto más de dos millones de veces durante un fin de semana en octubre) plantea preguntas sobre la preparación de YouTube para abordar la información errónea en su plataforma solo unas semanas antes de los combates de Iowa y señala el desafío continuo que enfrentan las plataformas. A medida que las personas intentan jugar con sus sistemas, Plasticity, una startup de procesamiento de lenguaje natural e inteligencia artificial de San Francisco que recopiló y analizó los datos de YouTube, proporcionó a CNN cientos de ejemplos de cómo las cuentas habían manipulado gráficos en pantalla para que las historias parecieran inflamatorias.

YouTube le dijo a CNN Business el jueves que su equipo de análisis de amenazas había investigado y determinado que los canales se ejecutaban desde el sudeste asiático y eran parte de una campaña de spam, diseñada para ganar dinero con anuncios en línea. La compañía dijo que no encontró nada que sugiera que los canales estaban vinculados a una campaña respaldada por el estado o que formaban parte de una campaña de influencia coordinada. Aunque Plasticity y CNN vieron cientos de videos sobre noticias y política, YouTube dijo que eliminaron muchos más videos que eran clips de entretenimiento.

Para ayudar a que sus videos se vuelvan virales, la persona o personas detrás de los canales de YouTube crearon cientos de imágenes falsas que alteraron los gráficos en pantalla de CNN para hacer que las historias y la cobertura de CNN de ellas parecieran inflamatorias. Una vez que el usuario hizo clic en el video, se reproducirían imágenes CNN inalteradas.

Algunos de los titulares y gráficos falsos que los canales de YouTube usaron para promocionar sus videos.

Se promocionó un video usando una imagen que hizo aparecer falsamente como si CNN hubiera ejecutado un gráfico en pantalla que decía "El presidente es una desgracia" y mostraba una imagen manipulada del presidente Trump con una soga alrededor del cuello.

Otra imagen mostraba un falso gráfico en pantalla de CNN que decía "¡La guerra comenzó oficialmente!" y mostró fotos del presidente Trump y el presidente de Irán.

En respuesta a los hallazgos el jueves, un portavoz de CNN dijo que YouTube debe asumir la responsabilidad.

"La manipulación de nuestra marca y propiedad intelectual con la intención específica de desinformar al público es un problema increíblemente serio que las plataformas deben abordar con urgencia", dijo el portavoz. "Las plataformas como YouTube tienen la responsabilidad de administrar la integridad del contenido que entregan al público. Eso es algo que los periodistas saben y han estado haciendo de manera efectiva durante generaciones. Es una diferencia fundamental entre las plataformas y los editores".

Un portavoz de Fox News declinó hacer comentarios.

Exclusivo: el FBI publica anuncios de Facebook dirigidos a rusos en Washington

"Desafortunadamente, volver a cargar contenido con miniaturas sensacionalistas es una táctica común que usan los spammers en un intento de atraer visitas e ingresos", dijo un portavoz de YouTube en un comunicado a CNN Business el jueves. "Utilizamos una combinación de aprendizaje automático y revisión humana para identificar y eliminar cuentas de spam, solo el último trimestre eliminamos casi 5 millones de videos y 3 millones de canales por violaciones de spam. Hemos tomado medidas contra estas cuentas y continuaremos nuestro trabajo para eliminar spam de la plataforma ".

YouTube dijo que ya había cerrado muchos canales antes de los hallazgos de Plasticity, pero utilizó la información que les proporcionó la empresa para cerrar 25 más. Las plataformas de medios sociales han estado plagadas de cuentas falsas dirigidas a estadounidenses. Algunos son administrados por estados nacionales, como Rusia e Irán, con fines geopolíticos o ideológicos. Otras cuentas son administradas por estafadores y personas que intentan ganar dinero rápidamente a través de anuncios en línea.

Pero aunque sus motivaciones pueden ser diferentes, los estafadores y los actores de los estados nacionales usan libros de jugadas similares, empujando contenido que se centra en las divisiones en la política y la sociedad estadounidense.

Darren Linvill, profesor asociado de la Universidad de Clemson que revisó los datos de Plasticity, dijo a CNN Business que, independientemente de los motivos de las personas detrás de los canales, lo que importa es el efecto.

Linvill señaló las miniaturas y subtítulos polarizadores, falsos e inflamatorios utilizados en los canales de YouTube descubiertos por Plasticity como un ejemplo de cómo los estafadores, los spammers y los actores de los estados nacionales están utilizando técnicas similares y se centran en los mismos temas divisivos.

"Las raíces de esto son las mismas", dijo, "se trata de cómo te comunicas con la gente y haces que te presten atención en línea".

Plasticity comenzó a monitorear las cuentas falsas a fines de noviembre después de que Ajay Patel, uno de los cofundadores de Plasticity, notó que YouTube le recomendaba repetidamente que mirara videos de los canales.

En el transcurso de solo una semana, Plasticity dijo que encontró más de dos docenas de canales de YouTube que tenían más de 8 millones de visitas combinadas que publicaban videos de noticias estadounidenses con miniaturas y títulos falsos y engañosos.

En octubre, CNN Business observó un canal utilizando tácticas similares. Los propios algoritmos de YouTube recomiendan a los usuarios ver videos en algunos de los canales, según una revisión de CNN Business en octubre de datos de AlgoTransparency, una herramienta que rastrea lo que recomienda YouTube.

"La profesionalidad de la operación me sorprendió. Se sintió como una operación las 24 horas del día que publicaba contenido nuevo con miniaturas falsas y titulares cada pocas horas", dijo Patel a CNN Business el jueves. "Cuando se eliminaron o prohibieron las cuentas, pudieron crear nuevas cuentas en cuestión de horas. Las tácticas que usaron para jugar con el algoritmo de YouTube se ejecutaron perfectamente. Sabían lo que estaban haciendo".

Plasticity informó sus hallazgos a YouTube y posteriormente informó a los representantes de la compañía por teléfono. YouTube eliminó los canales que Plasticity identificó.

Plasticity y CNN Business encontraron evidencia para sugerir, pero no confirmaron que algunas de las cuentas que publicaban los videos habían sido potencialmente robadas de otros usuarios de YouTube y reutilizadas. YouTube se negó a comentar sobre esto.

Be First to Comment

Leave a Reply

Your email address will not be published. Required fields are marked *