EL PAÍS

A partir de marzo de 2020, algunas de las afirmaciones falsas compartidas por los usuarios de Facebook incluían información como «las vacunas matan a más personas que el nuevo coronavirus» o «las vacunas contienen tejido de bebé». Facebook eliminó los comentarios de su muro en un esfuerzo por combatir la desinformación sobre las vacunas, pero no puede evitar el interés que ese contenido genera en su red social. Según el estudio publicado, los usuarios antivacunas explotaron la arquitectura de Facebook para abrir nuevas vías a la desinformación sobre las vacunas: su contenido se volvió «más engañoso, más políticamente polarizador y más propenso a aparecer en los canales de noticias de los usuarios». Publicado este viernes en la revista Science Advances.

Los investigadores del estudio utilizaron la herramienta CrowdTangle, propiedad de Meta, la empresa matriz de Facebook, para descargar datos públicos de la empresa. Analizaron 200.000 publicaciones de páginas y grupos de Facebook que se crearon antes de que la plataforma eliminara «Stop Obligatory Vaccination» en noviembre de 2020, una de las páginas antivacunas más grandes de la red social. El 3 de diciembre de 2020, el equipo de Mark Zuckerberg anunció que eliminaría de la plataforma las afirmaciones falsas sobre las vacunas COVID-19 y las cuentas que publicaran dichas afirmaciones. Según Bloomberg, la empresa matriz de Facebook, Meta, ha eliminado más de 27 millones de contenidos. Ahora, la compañía ya no quiere eliminar las afirmaciones falsas sobre el coronavirus.

Según Statista, la plataforma online más grande del mundo cuenta con 2.073 millones de usuarios activos y se caracteriza por su flexibilidad a la hora de adaptar el contenido a las necesidades de los usuarios. Las investigaciones muestran que su diseño de «jerarquía en capas», que consta de páginas (arriba), grupos (en el medio) y otros usuarios (abajo), proporciona caminos alternativos para el contenido antivacunas y lo hace más accesible. Los profesores David Broniatowski y PeriodistasdeGénero de la Universidad George Washington explicaron a PeriodistasdeGénero: “Si se elimina el contenido de una página, la jerarquía en capas permite a los usuarios y grupos encontrar contenido similar (o incluso idéntico) publicado en otra página”, investiga. En otras palabras, los administradores de estas páginas pueden compartir contenido a través de enlaces a otras páginas.

Más información

Es en las páginas y grupos de Facebook donde se comparte la información política consumida por audiencias conservadoras. Sandra González-Bailón, investigadora española de la Universidad de Pensilvania, explicaba a PeriodistasdeGénero en agosto: «En términos de números, hay muchos más usuarios que páginas o grupos. Pero si eliminamos páginas y grupos, el aislamiento disminuye. Hay Son un lugar intuitivo porque no puedes elegir a los miembros de tu familia, pero puedes elegir qué páginas y grupos sigues. Hay más autoselección. Pero eso es una decisión del diseño de la plataforma y de cómo se gobierna. Encontramos que las páginas y grupos El grupo creó más divisiones en lugar de ayudar a tender puentes”, explica.

Además del diseño, los Me gusta pueden promover contenido antivacunas. Cuantos más me gusta o reacciones de enojo haya en los mensajes de Facebook, es más probable que aparezcan en las noticias de otros usuarios debido a sus «interacciones sociales significativas», dijeron los investigadores. Si los creadores de contenido antivacunas manipulan estas respuestas, aumentan la visibilidad de su contenido en línea. Cuando se le preguntó sobre el estudio, el profesor David García de la Universidad de Konstanz (Alemania) señaló que “en el caso de la desinformación médica, sería una buena idea reducir el valor de los emojis enojados porque sabemos que las expresiones de indignación moral intensificarán la polarización”. » Aunque Facebook redujo a cero la ponderación de las reacciones de enojo en septiembre de 2020, el estudio informa que los niveles de interacción con contenido falso no han disminuido en comparación con las interacciones antes de la política de eliminación.

Rafael Rubio, experto en desinformación de la Universidad Complutense de Madrid, explicó que el algoritmo de Facebook favorece la desinformación porque «reduce el número de mensajes recibidos y aumenta la exposición de mensajes similares». Para ello, sugirió algunos cambios en las reglas de la plataforma: «La El procedimiento de quejas podría mejorarse, aumentarse su transparencia y reducirse el alcance de la difusión de noticias, lo que afecta directamente al algoritmo.»

El estudio y los expertos coinciden en que las redes sociales deben revisar sus políticas contra la desinformación para evitar riesgos y recomiendan la formación de alianzas entre grandes plataformas para abordar el problema. Brognatowski sugirió que los diseñadores de redes sociales colaboren para desarrollar un «código de construcción» que promueva la salud de todos en línea, comparándolo con la construcción de una casa. “Los arquitectos de la construcción deben equilibrar los objetivos de diseño de las propiedades con el cumplimiento de las normas para proteger a las personas que las utilizan”, concluyó.

Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y Twitter o registrarte aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí