Twitter reconoce en un estudio interno que sus algoritmos amplifican más a políticos y medios de derechas

La red social Twitter ha llevado a cabo un estudio interno sobre su plataforma y ha llegado a la conclusión de que políticos, organizaciones y medios de comunicación de derechas reciben una mayor amplificación que los de izquierdas. El estudio ha sido realizado en siete países: España, Francia, Canadá, Reino Unido, Japón, Alemania y Estados Unidos. A excepción de Alemania, el estudio concluye que «la derecha política dominante disfruta de una mayor amplificación algorítmica que la izquierda política dominante».

Esta mayor amplificación no se aplica únicamente a líderes políticos o a organizaciones, sino también a medios de comunicación, ya que lo que parece que se amplifica son los mensajes y los discursos adscritos a la derecha política, que ganan peso frente a los de izquierda beneficiados por el algoritmo de Twitter. Rumman Chowdhury, jefa de aprendizaje automático, ética, transparencia y responsabilidad de Twitter, asegura que no puede explicar los motivos por los qué sus algoritmos de Twitter discriminan los mensajes de la izquierda política y amplifican los de la derecha.

«En este estudio identificamos lo qué ocurre: ciertos contenidos políticos se amplifican en la plataforma. Establecer por qué se producen estos patrones observados es una cuestión bastante más difícil de responder, ya que es un producto de las interacciones entre las personas y la plataforma», ha afirmado Chowdhury.

Vox, calificado como «extremista»

Gráfico del estudio llevado a cabo por Twitter. Autor: Twitter, 22/10/2021. Fuente: Twitter
Gráfico del estudio llevado a cabo por Twitter. Autor: Twitter, 22/10/2021. Fuente: Twitter

El estudio arroja también luz acerca de su elaboración. Para encuadrar a los políticos en uno u otro lado, han utilizado sitios web oficiales e institucionales, así como categorizaciones de expertos e investigadores ajenos a Twitter. Concretamente, se han utilizado los trabajos de AllSides y Ad Fontes Media. También se ha recurrido a las fuentes ofrecidas con páginas como la enciclopedia libre Wikipedia. «No utilizamos el contenido de los tuits para intentar inferir las opiniones políticas», aclara la red social.

En el caso de España, Vox ha sido calificado dentro de la categoría de «ideologías extremas» y como de «extrema derecha», mientras que el Partido Popular (PP) ha sido categorizado como de derecha dentro de la categoría de «partidos moderados». Así, el PP sería el partido con mayor amplificación en Twitter, seguido del PSOE, Unidas Podemos y, por último, de Vox, con bastante diferencia.

En cambio, no parece que exista una mayor o menor amplificación si se comparan partidos de la oposición o partidos del gobierno, es decir, que el sesgo es eminentemente ideológico. De hecho, el Partido Popular es de los más amplificados de todos los países estudiados.

Los contenidos radicales no son más amplificados

El estudio elaborado por la red social busca, precisamente, llegar a conclusiones sobre el papel de los algoritmos en el consumo de contenido a través de redes sociales en un momento donde existe polémica acerca de Facebook, YouTube y TikTok por las acusaciones acerca de que, supuestamente, los contenidos más extremistas, concretamente ultraderechistas, reciben una mayor amplificación. Sin embargo, no parece que esa sea la conclusión de Twitter.

Según el estudio, falta evidencia sobre que los algoritmos amplifiquen la visibilidad de los mensajes de grupos radicales de extrema derecha o extrema izquierda. «En contra de la creencia pública predominante, no encontramos pruebas», aseguran. En sus conclusiones, aseguran que los contenidos calificados como «moderados» reciben mayor amplificación que los «extremos». De hecho, Vox en España sería el partido que menor amplificación tiene en la red social.

Entre las conclusiones, también existen dudas acerca de que esta mayor amplificación tenga una repercusión significativa a nivel individual. Pese a que nivel general el discurso político de derechas es más amplificado por los algoritmos, esto no es garantía de que un político o medio de derechas vaya a ser necesariamente más amplificado que perfiles similares de políticos o medios de izquierdas: «En otras palabras, como la afiliación a un partido o la ideología no es un factor que nuestros sistemas tengan en cuenta a la hora de recomendar contenidos, dos individuos del mismo partido político no verían necesariamente la misma amplificación». 

La metodología del estudio

El estudio ha sido realizado por el equipo de ética, transparencia y responsabilidad de Twitter a través del machine learning, conocido como META. El equipo liderado por Rumman Chowdhury analizó millones de tweets provenientes de funcionarios electos de hasta siete países. La investigación también recogió datos de millones de tweets que contenían enlaces a otros medios.

Twitter explica que esta investigación ha sido «de larga duración y a gran escala». Para analizar qué cuentas de políticos tenían una mayor amplificación, se analizaron «millones de tuits» publicados por representantes políticos electos del 1 de abril al 15 de agosto de 2020 que contenían enlaces a artículos y noticias de contenido político compartidos por usuarios de la red social. El grupo de control estuvo formado por la actividad de dos millones de usuarios con actividad diaria.

Los tweets fueron recogidos del timeline de los usuarios teniendo en cuenta las principales recomendaciones que realizaba el algoritmo a la hora de sugerir contenido que interpreta que le puede interesar. A través de dichas recomendaciones, se pueden sacar conclusiones de cómo funcionan estos algoritmos y analizar así qué tipo de mensajes de amplifican más con respecto a otros.

«La amplificación algorítmica no es problemática en sí misma: todos los algoritmos amplifican. La amplificación algorítmica es problemática si hay un trato preferente en función de cómo se construye el algoritmo frente a las interacciones que las personas tienen con él», admite Twitter: «Es necesario realizar un análisis más profundo de las causas para determinar qué cambios son necesarios, si es que hay alguno, para reducir los impactos adversos de nuestro algoritmo de línea de tiempo en casa», dice Chowdhury.

No obstante, en primera instancia, Twitter ha señalado la actividad de los usuarios como la principal responsable de la actuación discriminatoria del algoritmo, y no al algoritmo en sí mismo. Profundizando sobre el porqué del asunto, Chowdhury concluía en una entrevista para el medio Protocol que parte de esa amplificación «podría haber sido impulsada por el propio usuario», lo que viene a significar que estaría relacionado con cómo usan las personas esta plataforma.

La amplificación del extremismo en redes sociales

La Red de Influencia Alternativa en el estudio Alternative Influence: Broadcasting the Reactionary Right on YouTube (2018).
Autor: Rebeca Lewis. Fuente: Data&Society. las líneas son referencias o colaboraciones entre los distintos canales de Youtube.
La Red de Influencia Alternativa en el estudio Alternative Influence: Broadcasting the Reactionary Right on YouTube (2018).
Autor: Rebeca Lewis. Fuente: Data&Society. las líneas son referencias o colaboraciones entre los distintos canales de Youtube.

El asunto de cómo a través de redes sociales se amplifican los contenidos de la extrema derecha no viene de ahora. Estudios independientes sí han encontrado evidencias de que los tweets más tóxicos son los que tienden a recibir más interacciones y por tanto a recibir más visibilidad.

Por otro lado, redes sociales como Facebook, TikTok o YouTube también han sido señalados no solo por amplificar este tipo de mensajes, sino también por no hacer nada o casi nada para evitarlo debido a que precisamente los contenidos más radicales son los que más interacción generan y, por lo tanto, los que más ingresos dan a la plataforma en comparación a otro tipo de contenido político.

Una investigación realizada por Media Matters for America denunciaba cómo, a pesar de que TikTok prohíbe el contenido de organizaciones de la derecha alternativa estadounidense como QAnon o Patriot Party, luego su algoritmo les ayudaba a difundir su mensaje y a promocionar contenidos relacionados con estas organizaciones.

En cuanto a Facebook, los distintos informes internos que maneja la compañía reflejaba que los contenidos de la derecha radical son muy rentables. En uno de estos informe de la compañía, en 2016, alertaba de que el 64% de personas que se unían a un grupo extremista en la red social lo hacían por que el algoritmo así se lo aconsejaba. Otro informe interno de 2018 descubría que dicho algoritmo, precisamente, alimentaba la polarización ideológica. En las propias diapositivas donde se exponía el contenido de este análisis, rezaba literalmente: «Nuestros algoritmos explotan la atracción del cerebro humano hacia la división».

Por último, en el caso de YouTube, se sabe que su algoritmo es responsable del 70% de los vídeos que finalmente la gente decide ver, perfeccionando a lo largo de los años la capacidad de enseñar contenidos que sabe que tendrán al público pegado al monitor. Un estudio publicado a principios de año por la Escuela Politécnica de Lausana, en Suiza, y de la Universidad de Minas Gerais, en Brasil, confirmó la tendencia: más de un 26% de las personas que suelen comentar en vídeos de contenido más moderado acaban no solo pasándose a vídeos de extrema derecha, sino generando comentarios en ellos de manera constante debido al algoritmo.

Además, según el estudio, YouTube tiende a mostrar contenido cada vez más violento según ciertas palabras clave. Aunque es cierto que, en los dos últimos años, se han eliminado varios canales por incitación al odio y se restringe la edad y difusión de cierto contenido, la ultraderecha se ha aprovechado de esto generando interacción mediante colaboraciones, menciones, citaciones y creación de material conjunto. The Rebel MediaThe Rubin Report o InfoVlogger son tres buenos ejemplos.

Data&Society llevó a cabo un estudio en 2018, Alternative Influence: Broadcasting the Reactionary Right on YouTube, en el que concluyó que las redes generadas en base al uso del mismo tipo de contenido y las colaboraciones y comparticiones mutuas entre canales de extrema derecha, combinado con el algoritmo de YouTube y la fidelización de un público concreto, ha contribuido a que se perpetúen ideas dañinas relacionadas con el racismo, el machismo o la homofobia en lo que la autora Rebbeca Lewis llama Red de Influencia Alternativa.

Parece claro, por lo tanto, que la derecha radical ha sabido aprovecharse de los algoritmos de las principales redes sociales para que su discurso reaccionario llegue a cada vez más personas, sin que parezca que dichas redes hagan nada por evitarlo debido a que, precisamente, obtienen beneficio económico de ello.

Adrián Juste

Jefe de Redacción de Al Descubierto. Psicólogo especializado en neuropsicología infantil, recursos humanos, educador social y activista, participando en movimientos sociales y abogando por un mundo igualitario, con justicia social y ambiental. Luchando por utopías.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.