Un equipo de investigadores de las universidades estadounidenses de Princeton, Yale, Northwestern y Harvard ha revelado el mecanismo por el cual la desinformación utiliza la indignación como herramienta clave para propagarse en las redes sociales. El trabajo, publicado por la revista ‘Science’, analiza datos de millones de interacciones en plataformas como Facebook y Twitter, así como experimentos directos con usuarios, para entender el papel que juegan las emociones en la difusión tanto de las noticias falsas como las veraces.
«La indignación es altamente atractiva y no necesita ser precisa para lograr sus objetivos comunicativos, lo que la convierte en una señal atractiva para incorporar en la desinformación», explican los autores del estudio. De esta forma, generar mensajes que provocan indignaciónse convierte en la herramienta ideal para quienes buscan manipular la información en redes sociales», según los investigadores, encabezados por Killian L. McLoughlin (Princeton) y William J. Brady (Northwestern).
A partir del análisis de cómo interactuaban los usuarios con más de un millón de enlaces de Facebook y con 44.529 tuits en Twitter, junto a dos experimentos conductuales con 1.475 personas, los autores realizan tres contundentes hallazgos. El primero es que «las fuentes de desinformación generan más indignación que las fuentes confiables». El segundo señala que cuando sienten indignación sobre una información, los usuarios no diferencian si la noticia es veraz o no a la hora de compartirla. El tercero, todavía más preocupante, es que «los usuarios son más propensos a compartir desinformación que provoca indignación sin haberla leído primero».
Un proceso al que se suma otra realidad de las redes sociales que los investigadores también reseñan en su estudio. Dado que la indignación genera altos niveles de interacción, los algoritmos encargados de sugerir las publicaciones tienden a amplificar este contenido, con independencia de su veracidad. Sin embargo, los autores reconocen que analizar esta relación entre indignación e interacción es un desafío muy complejo, dada la opacidad de los algoritmos que manejan las redes sociales y las restricciones de acceso a datos.
Indignación y desinformación: un círculo vicioso
Los autores comienzan definiendo desinformación «como información falsa y engañosa» y la vinculan con «el aumento de la polarización política, el sentimiento antidemocrático y la vacilación frente a las vacunas». Para hacer frente a ello, las inversiones e iniciativas realizadas por las plataformas digitales «sólo han tenido un éxito limitado en frenar su propagación».
El motivo de ese fracaso es el poder de la indignación. En primer lugar porque «es altamente atractiva», según el estudio, que ha comprobado cómo «las publicaciones en redes sociales que expresan indignación reciben más ‘me gusta’ y se comparten más», lo que acaba generando un círculo vicioso según el texto: «Entrena a los usuarios a expresar más indignación y a los algoritmos de clasificación a amplificarla». Además, estas expresiones de enojo sirven también a otros objetivos comunicativos que no dependen de la precisión de la información «como señalar lealtad a un grupo político o difundir una postura moral».
A ello se une otro descubrimiento: «los individuos que expresan indignación [en las redes sociales] son vistos como más confiables». Una realidad que, según los autores, «sugiere que las fuentes de noticias podrían ganar una ventaja de credibilidad publicando contenido que genera indignación». Además, el estudio señala que en Facebook los enlaces que provocan más reacciones de enfado son más propensos a ser compartidos sin ser leídos, en especial aquellos que provienen de fuentes de desinformación. Para los autores «la indignación aumenta la fuerza relativa de motivos» emocionales como la posición política o moral. Estas características «proporcionan fuertes incentivos para que los difusores de desinformación generen contenido que provoque indignación».
Todo ello, con independencia de que sea o no cierto. De hecho, el estudio evidencia que «los usuarios de redes sociales a veces comparten información que saben que es inexacta para satisfacer motivos no epistémicos [relacionados con la exactitud], como señalar su afiliación política o postura moral, a pesar de los posibles costes reputacionales». Unos costes que no son tantos porque, como explican los autores, «si se descubre que un usuario compartió desinformación puede alegar que sólo quería expresar que el contenido es ‘indignante si es cierto’, preservando la confianza epistémica mientras refuerza su confianza moral».
Los hallazgos del estudio sugieren que las estrategias actuales de las redes sociales para evitar la desinformación, centradas en descargar la responsabilidad en los usuarios -como por ejemplo al recordarles que verifiquen la precisión antes de compartir- pueden ser insuficientes. «La desinformación en línea sigue siendo una amenaza para un espacio digital saludable y para la democracia», señalan, para reclamar «soluciones efectivas» de las «directrices legales y políticas que buscan mitigar estos daños».
¿Será Bluesky la solución a la desinformación?
El estudio se basa en la interacción en Facebook y Twitter de usuarios estadounidenses en unas fechas muy específicas, del verano de 2020 a los primeros meses de 2021, un periodo que coincide con la acalorada campaña electoral entre Trump y Biden y la no menos accidentada toma de posesión de este último, con el asalto al Capitolio incluido. Y como principal fuente tomaron la Internet Research Agency (IRA), «una organización rusa cuyo propósito era sembrar desinformación y discordia en la política estadounidense», por lo que los autores muestran su precaución de que sus resultados puedan «generalizarse a otros contextos culturales o plataformas sociales».
No remite por tanto a la actual dicotomía entre X y Bluesky, pero sí podría ayudar a pronosticar el futuro. Algunos políticos, mayoritariamente de izquierdas, personalidades públicas y medios de comunicación, como el diario británico ‘The Guardian’ han anunciado que dejan de publicar en X (la antigua Twitter) porque se ha convertido en una «plataforma mediática tóxica», sobre todo desde que al frente de ella se encuentra el multimillonario Elon Musk, uno de los más activos apoyos de la campaña de Trump en las recientes elecciones a la presidencia .
Como alternativa han optado por Bluesky, una red creada en 2019 por Jack Dorsey, fundador de Twitter, y que permanecía casi latente con escasos usuarios -funcionó sólo por invitación hasta febrero de este año- y con la pretensión de ser una versión descentralizada de la antigua red social del pajarito. Dorsey abandonó el equipo gestor en mayo y en septiembre eliminó su cuenta, y el CEO es ahora Jay Graber, que ostenta además la mayoría de la propiedad. En unos meses ha superado los 22 millones de usuarios (muy lejos todavía de X), con un planteamiento de código abierto se presenta como «hecha por la gente y para la gente».
Sin embargo, si se extrapolan los resultados del estudio, es cuestión de tiempo que deje de ser el edén de las redes sociales, como parecen describirla sus usuarios. Si se siguen los pasos del proceso descrito, el aumento de las interacciones conllevará un inevitable crecimiento de la desinformación y, con ella, de la indignación, que de nuevo funcionará como motor para una mayor redifusión. Y ahí, los algoritmos tendrán su última palabra.