Un experimento muestra que grupos de personas no expertas califican las historias con la misma eficacia que los verificadores de hechos

Vea También

 

Un experimento muestra que grupos de personas no expertas califican las historias con la misma eficacia que los verificadores de hechos
Foto de Agence Olloweb en Unsplash

Ante la grave preocupación por la desinformación, las redes sociales y las organizaciones de noticias suelen emplear verificadores de hechos para separar lo real de lo falso. Pero los verificadores sólo pueden evaluar una pequeña parte de las historias que circulan por Internet.

Un nuevo estudio realizado por investigadores del MIT sugiere un enfoque alternativo: Los juicios de exactitud realizados por grupos de lectores normales pueden ser prácticamente tan eficaces como el trabajo de los verificadores profesionales.

"Uno de los problemas de la verificación de hechos es que hay demasiado contenido para que los verificadores profesionales puedan abarcarlo, especialmente en un plazo razonable", afirma Jennifer Allen, estudiante de doctorado en la Sloan School of Management del MIT y coautora de un artículo recién publicado que detalla el estudio.

Pero el estudio actual, que examina más de 200 noticias que los algoritmos de Facebook habían marcado para un mayor escrutinio, puede haber encontrado una manera de abordar ese problema, utilizando grupos relativamente pequeños y políticamente equilibrados de lectores legos para evaluar los titulares y las frases principales de las noticias.

"Nos pareció alentador", dice Allen. La calificación media de un grupo de 10 a 15 personas se correlacionaba tan bien con las valoraciones de los verificadores de hechos como los verificadores de hechos se correlacionaban entre sí". Esto ayuda a resolver el problema de la escalabilidad porque estos calificadores eran personas normales sin formación en comprobación de hechos, y se limitaron a leer los titulares y las frases principales sin dedicar tiempo a investigar."

Esto significa que el método de crowdsourcing podría desplegarse ampliamente, y a bajo coste. El estudio calcula que el coste de que los lectores evalúen las noticias de esta manera es de unos 0,90 dólares por noticia.

"No hay nada que resuelva el problema de las noticias falsas en Internet", dice David Rand, profesor del MIT Sloan y coautor principal del estudio. "Pero estamos trabajando para añadir enfoques prometedores al kit de herramientas contra la desinformación".

Una masa crítica de lectores

Para llevar a cabo el estudio, los investigadores utilizaron 207 artículos de noticias que un algoritmo interno de Facebook identificó como necesitados de comprobación de hechos, ya sea porque había razones para creer que eran problemáticos o simplemente porque estaban siendo ampliamente compartidos o trataban de temas importantes como la salud. En el experimento participaron 1.128 residentes de EE.UU. mediante la plataforma Mechanical Turk de Amazon.

A estos participantes se les dio el titular y la frase principal de 20 noticias y se les hizo siete preguntas -en qué medida la historia era "precisa", "verdadera", "fiable", "digna de confianza", "objetiva", "imparcial" y "describe un evento que realmente ocurrió"- para generar una puntuación general de precisión sobre cada noticia.

Al mismo tiempo, se entregaron las 207 noticias a tres verificadores profesionales, a los que se les pidió que evaluaran las noticias después de investigarlas. En consonancia con otros estudios sobre comprobación de hechos, aunque las puntuaciones de los comprobadores de hechos estaban muy correlacionadas entre sí, su concordancia distaba mucho de ser perfecta. En aproximadamente el 49% de los casos, los tres verificadores de hechos coincidieron en el veredicto correcto sobre la veracidad de una historia; alrededor del 42% de las veces, dos de los tres verificadores de hechos coincidieron; y alrededor del 9% de las veces, los tres verificadores de hechos tuvieron calificaciones diferentes.

Curiosamente, cuando los lectores habituales reclutados para el estudio se clasificaron en grupos con el mismo número de demócratas y republicanos, sus valoraciones medias estaban muy correlacionadas con las valoraciones de los verificadores de hechos profesionales, y con al menos un número de dos dígitos de lectores implicados, las valoraciones de la multitud se correlacionaban tan fuertemente con las de los verificadores de hechos como las de éstos entre sí.

"Estos lectores no estaban formados en la comprobación de hechos, y sólo leían los titulares y las frases principales, y aun así fueron capaces de igualar el rendimiento de los comprobadores de hechos", afirma Allen.

Aunque en principio pueda parecer sorprendente que una multitud de 12 a 20 lectores pueda igualar el rendimiento de los verificadores de hechos profesionales, se trata de otro ejemplo de un fenómeno clásico: la sabiduría de las multitudes. En una amplia gama de aplicaciones, se ha comprobado que los grupos de legos igualan o superan el rendimiento de los juicios de los expertos. El estudio actual demuestra que esto puede ocurrir incluso en el contexto altamente polarizante de la identificación de la desinformación.

Los participantes en el experimento también realizaron una prueba de conocimientos políticos y una prueba de su tendencia a pensar de forma analítica. En general, las valoraciones de las personas mejor informadas sobre temas cívicos y con un pensamiento más analítico coincidían más con los verificadores de hechos.

"La gente que razonaba más y tenía más conocimientos estaba más de acuerdo con los verificadores de hechos", dice Rand. "Y eso era cierto independientemente de si eran demócratas o republicanos".

Mecanismos de participación

Los investigadores dicen que el hallazgo podría aplicarse de muchas maneras, y señalan que algunos gigantes de las redes sociales están tratando activamente de hacer que el crowdsourcing funcione. Facebook tiene un programa, llamado Community Review, en el que se contrata a personas no expertas para que evalúen el contenido de las noticias; Twitter tiene su propio proyecto, Birdwatch, que solicita la opinión de los lectores sobre la veracidad de los tweets. La sabiduría de las multitudes puede utilizarse tanto para ayudar a aplicar etiquetas de cara al público a los contenidos, como para informar a los algoritmos de clasificación y a los contenidos que se muestran a la gente en primer lugar.

Para estar seguros, los autores señalan que cualquier organización que utilice el crowdsourcing necesita encontrar un buen mecanismo de participación de los lectores. Si la participación está abierta a todo el mundo, es posible que el proceso de crowdsourcing se vea influenciado injustamente por los partidistas.

"Todavía no hemos probado esto en un entorno en el que cualquiera pueda participar", señala Allen. "Las plataformas no deben esperar necesariamente que otras estrategias de crowdsourcing produzcan resultados igualmente positivos".

Por otro lado, dice Rand, las organizaciones de noticias y medios sociales tendrían que encontrar la forma de conseguir que un grupo suficientemente grande de personas evaluara activamente las noticias, para que el crowdsourcing funcionara.

"A la mayoría de la gente no le importa la política y se preocupa lo suficiente como para intentar influir en las cosas", dice Rand. "Pero la preocupación es que si dejas que la gente valore cualquier contenido que quiera, entonces los únicos que lo harán serán los que quieran jugar con el sistema. Sin embargo, para mí, una preocupación mayor que la de ser inundado por los fanáticos es el problema de que nadie lo haría. Es un problema clásico de bienes públicos: la sociedad en general se beneficia de que la gente identifique la desinformación, pero ¿por qué los usuarios deberían molestarse en invertir el tiempo y el esfuerzo en dar calificaciones?"

Fuentes, créditos y referencias:

Scaling up fact-checking using the wisdom of crowds, Science Advances (2021). DOI: 10.1126/sciadv.abf4393

Artículo Anterior Artículo Siguiente

Anuncio publicitario

Reciba actualizaciones por Telegram