El sesgo político en las redes sociales surge de los usuarios, no de la plataforma

Vea También


Wen Chen et al, Neutral bots probe political bias on social media, Nature Communications (2021). DOI: 10.1038/s41467-021-25738-6
Wen Chen et al, Neutral bots probe political bias on social media, Nature Communications (2021). DOI: 10.1038/s41467-021-25738-6


En esta época de polarización política, muchos acusan a las plataformas de medios sociales en línea, como Twitter, de tener un sesgo liberal, favoreciendo y amplificando intencionadamente los contenidos y usuarios liberales mientras suprimen otros contenidos políticos.

Pero un nuevo estudio de la Universidad de Indiana concluye que no es así. Los sesgos políticos, según los investigadores, se derivan de las interacciones sociales de nuestras cuentas: recibimos contenidos estrechamente alineados con lo que producen nuestros amigos en línea, especialmente nuestros primeros amigos en línea. Además, los sesgos políticos en Twitter favorecen el contenido conservador.

"Nuestro principal hallazgo es que la información que los usuarios de Twitter ven en su feed de noticias depende de la inclinación política de sus primeras conexiones", dijo el coautor del estudio Filippo Menczer. "No encontramos pruebas de una interferencia intencionada por parte de la plataforma. En cambio, el sesgo puede explicarse por el uso, y el abuso, de la plataforma por parte de sus usuarios."

El estudio, "Neutral bots probe political bias on social media", se publica en línea en la revista Nature Communications. Los autores son un equipo de investigadores del Observatorio de Medios Sociales (OSoMe, pronunciado awesome) de la Universidad de Illinois Bloomington, dirigido por Menczer, que es director de OSoMe y profesor distinguido de informática y ciencias de la computación en la Escuela Luddy de Informática, Computación e Ingeniería.

Para descubrir los sesgos en las noticias y la información en línea a las que se expone la gente en Twitter, los investigadores desplegaron 15 bots, llamados "drifters" para distinguir su comportamiento neutral de otros tipos de bots sociales en Twitter. Los drifters imitaban a los usuarios humanos, pero estaban controlados por algoritmos que los activaban aleatoriamente para realizar acciones.

Después de inicializar cada bot con un primer amigo de una fuente de noticias popular alineada con la izquierda, el centro-izquierda, el centro, el centro-derecha o la derecha del espectro político estadounidense, los investigadores soltaron a los drifters "en libertad" en Twitter.

El equipo de investigación recogió datos sobre los drifters diariamente. Al cabo de cinco meses, examinaron el contenido consumido y generado por los drifters, analizando la alineación política de los amigos y seguidores de los bots y su exposición a la información procedente de noticias y fuentes de información de baja credibilidad.

La investigación reveló que la alineación política de un amigo inicial en las redes sociales tiene un gran impacto en la estructura de la red social de un usuario y su exposición a fuentes de baja credibilidad.

"Las decisiones tempranas sobre qué fuentes seguir influyen en las experiencias de los usuarios de las redes sociales", dijo Menczer.

El estudio descubrió que los usuarios a la deriva tienden a ser atraídos por la derecha política. Los usuarios con amigos iniciales de derechas se integraron gradualmente en redes homogéneas en las que estaban expuestos a más contenidos de derechas y de baja credibilidad. Incluso empezaron a difundir ellos mismos contenidos de derechas. También tendían a seguir cuentas más automatizadas.

Dado que los drifters estaban diseñados para ser neutrales, la naturaleza partidista de los contenidos que consumían y producían refleja los sesgos del "ecosistema de información online" creado por las interacciones de los usuarios, según Menczer.

"La influencia online se ve afectada por las características de la cámara de eco de la red social", afirma. "Los que siguen fuentes de noticias más partidistas reciben más seguidores políticamente alineados, integrándose en cámaras de eco más densas".

Para evitar quedar atrapados en las cámaras de eco en línea, los usuarios deben hacer esfuerzos adicionales para moderar el contenido que consumen y los lazos sociales que forman, según Diogo Pacheco, antiguo becario postdoctoral en el Centro de Investigación de Redes y Sistemas Complejos de IU Bloomington y coautor del estudio.

"Esperamos que este estudio aumente la concienciación de los usuarios de las redes sociales sobre los sesgos implícitos de sus conexiones en línea y su vulnerabilidad a estar expuestos a información selectiva, o a algo peor, como las campañas de influencia, la manipulación, la desinformación y la polarización", dijo Pacheco. "Cómo diseñar mecanismos capaces de mitigar los sesgos en los ecosistemas de información online es una cuestión clave que sigue abierta al debate".

Fuentes, créditos y referencias:

Wen Chen et al, Neutral bots probe political bias on social media, Nature Communications (2021). DOI: 10.1038/s41467-021-25738-6

Artículo Anterior Artículo Siguiente

Anuncio publicitario

Reciba actualizaciones por Telegram

¡Únete a nuestro canal de WhatsApp para recibir actualizaciones!