'¿Un campo de batalla polarizado?': Notas de la comunidad y Elon Musk contra los riesgos de la desinformación

«Los comentarios de la comunidad son lo mejor que le ha pasado a Twitter», escribió un usuario. «Twitter ha estado muy enfermo últimamente, pero la nota de la comunidad me dio una razón para volver a unirme», dijo otro. Otro añadió: «Las notas de la comunidad son lo mejor que Twitter ha publicado en años y me encanta ver un hilo y a una persona mintiendo abiertamente».

En X (antes conocido como Twitter) es fácil encontrar opiniones de todo tipo. Pero las docenas de publicaciones sobre las nuevas «Notas comunitarias» son motivo de celebración. En España su aparición aumentó en la última semana de agosto. Los «Comentarios» son el sistema de moderación de la comunidad de la plataforma, escritos y calificados por los usuarios. La idea surgió del antiguo Twitter de su cofundador, Jack Dorsey. Creado en 2021 como Birdwatch. Desde la adquisición, Elon Musk le cambió el nombre y se convirtió en su mayor patrocinador. Su propia cuenta ha sido corregida: «Las anotaciones de la comunidad se aplican por igual a todas las cuentas de la plataforma, sin excepción, incluidos los líderes mundiales y nuestros mayores anunciantes». Al igual que Wikipedia, incluye reducirá la desinformación en la web. Las responsabilidades se transfieren a un grupo de registrados. usuarios.

Llegaron a España para su prueba en abril y están disponibles para todos los usuarios desde julio, primer país europeo donde ocurre esto. Un mes después llegaron a Francia, Alemania, Italia, Países Bajos y Bélgica y, desde esta semana, están abiertos en 23 países europeos. A excepción de Brasil, el registro está abierto en algunos países de América Latina, pero el sistema aún no está en pleno funcionamiento. En esta página puedes leer las publicaciones y sus «comentarios» en todos los idiomas.

Más información

La tasa de publicación de las notas es baja y se concentra principalmente en publicaciones virales o cuentas conocidas. La cuenta oficial X, que recopila las notas «más útiles», tiene sólo 235 mensajes. Entre los afectados se encontraban el candidato presidencial del gobierno Alberto Núñez Feijóo (que ignoró detalles sobre delincuentes sexuales), periodistas mexicanos (que exageraron los peligros del vertido de agua de Japón) o responsables de igualdad de la Secretaría de Estado para Asuntos Exteriores. Consentimiento y Derecho Penal. Las publicaciones sobre Luis Rubiales y el futbolista español ganando la Copa del Mundo han dominado los titulares en los últimos días. Algunos medios tradicionales también recibieron su condena y también circularon ampliamente tweets sobre formas extrañas de la naturaleza (todas falsas) o cómo los animales escaparon de los guepardos tirando pedos (inventados).

Nota de la comunidad sobre el tuit de Alberto Núñez Feijóo

La mejora del sistema se ha convertido en un nuevo campo de batalla para la cultura política. Algunos usuarios de la plataforma solicitarán anotaciones para publicaciones que no les gustan: ver a un competidor sufrir con anotaciones asignadas por cientos o miles de votos es mucho más importante que ser etiquetado como «falso» por los medios o el establishment. verificador de hechos. Para protegerse de descalificaciones interesadas, el sistema es más complicado de lo que parece. Los usuarios registrados verán algunas notas sugeridas escritas por otros usuarios. Deben evaluarlas, no sólo por su verdad o no, sino por su causa o razones.

«El proceso implica calificar notas sobre si son útiles o no, y luego surge un conjunto de criterios que le permiten señalar los factores que influyeron en su decisión», dijo el usuario Daurmith, que pidió no ser identificado. «Si usas una fuente de calidad, si proporcionas un contexto importante, si el lenguaje es neutral. Si lo clasificas como inútil, tienes un conjunto diferente de criterios: lenguaje sesgado, que no proporciona una fuente, o que no son confiables».

El sistema también evita que los editores se empantanen en discusiones. «En las notas no se pueden crear campos de batalla porque si alguien escribe una nota y yo la califico, mi calificación no aparece en esa persona», dice la usuaria registrada y streamer Andrea Sánchez (Andrea Sanchis). La edición es anónima: tu nombre de usuario en X no es el mismo que tu apodo en la plataforma de edición de notas. Para ser miembro de este tribunal colectivo basta con tener un número de teléfono y rellenar un pequeño formulario. Tampoco es necesario pagar una tarifa de suscripción X mensual.

Pero a veces inevitablemente se complican. Le País ha visto la información debajo del vídeo relacionado con la polémica de Luis Rubiales. Esta fue una publicación particularmente controvertida: 7 propuestas de anotaciones (ninguna de las cuales fue aprobada en ese momento) y luego otras 6 explicando por qué no eran necesarias las anotaciones. Quienes argumentan que no se debe añadir contexto dirían: «El vídeo es claro y proporciona el contexto necesario. No se necesitan notas. Los espectadores deciden pensar como quieren y como les parece, pero el mensaje o el vídeo no se manipula». El acrónimo «No Need Note» (NNN) pronto será el mensaje central en la batalla por el nuevo sistema. El algoritmo de X decide si alguna «nota» debe mostrarse a todos los usuarios en función de los votos de otros usuarios.

El tweet de la cuenta viral ha sido corregido con una «nota comunitaria».

X solo publica contenido que obtiene suficientes votos de usuarios que generalmente no están de acuerdo con su calificación. En principio, esto debería indicar la horizontalidad de la ideología. Por lo tanto, X puede defenderse contra operaciones partidistas o de suplantación de identidad. Una vez activado, los usuarios no registrados pueden continuar calificando la nota incluso si la ven; no es raro que las notas que ya han sido publicadas desaparezcan más tarde.

Aunque los usuarios registrados no deberían prestar atención a todo lo que sugiere la plataforma, hay muchas más notas en circulación que las pocas que acaban publicándose: «Haciendo una inspección visual, puedo estimar que sólo entre un 5% y un 10% de las notas publicadas lo son». .hecho», calculó otro usuario registrado, Manuel Herrador, profesor de la Universidad de A Coruña.

¿Se utiliza para controlar mensajes de error?

¿Qué utilidad tendría un sistema así para controlar la desinformación? Tiene algunos beneficios, y quizás por eso inspira entusiasmo ahora: aumenta la inteligencia colectiva. Sílvia Majó, profesora de la Vrije Universität Amsterdam e investigadora del Instituto Reuters (Cambridge), afirmó: «De hecho, la revisión colectiva y la información contextual son muy buenas herramientas para capturar desinformación de alta calidad». «Los desarrolladores ayudan a sitios como Stack Overflow a funcionar así. Esta forma de agregar inteligencia colectiva y ponerla en contexto es un buen aliado para producir contenido de la más alta calidad», afirmó.

Wikipedia es una gran historia de éxito de esta inteligencia colectiva habilitada por Internet. ¿Pueden las plataformas de información adaptarse a este formato en tiempo real? no es simple. Los comentarios suelen aparecer horas o días después de la publicación original. Si el usuario interactúa con él, X dirá mostrarlo nuevamente. «Creo que es una buena solución para una plataforma como X», afirma el editor de Wikipedia, Àlex Hinojo. «Pero se necesita una buena base de voluntarios. Dependerá de cómo desglosen el compromiso por idioma o tema y de lo fácil que sea entrar en la curva», añadió. ¿Pero se convertirá en un campo de batalla polarizado e inútil? «Sí, por supuesto. Es un equilibrio difícil», dice Hinojo.

«En general, el proceso ha sido muy frustrante», dijo Herardo. «Uno termina calificando muchas notas, para luego descubrir que muy pocas son públicas, o escribe muchas notas sin resultados. No veo que esto tenga perspectivas a medio o largo plazo, porque como tarea altruista, es muy frustrante, por lo que creo que probablemente terminará siendo dominada por grupos de interés», añadió. Éste es uno de los desafíos. Como ocurre con el libro en sí, el debate está abierto. Para el informático Míchel González, otro redactor consultado por el diario, el altruismo y el trabajo duro son valores positivos: «Wikipedia decía lo mismo, y ahora es… La democratización de estos sistemas impide que los grupos de presión controlen la información».

Los conflictos de edición en Wikipedia ocurren fuera de la vista de los usuarios. En X, las encuestas y los comentarios aparecen y desaparecen. La última publicación en la cuenta oficial de Notes fue exactamente sobre esto: «Actualizamos nuestro algoritmo de puntuación para reducir las notas que aparecen y luego desaparecen a medida que reciben un conjunto de puntuaciones más grande y potencialmente más representativo», se lee en el mensaje.

moderador de fuego

Twitter antes de X tenía un gran equipo de moderadores que marcaban, penalizaban o eliminaban tweets. Ahora están despedidos. La solución, según Musk, es traspasar esa responsabilidad a los usuarios. Según el profesor Mayo, esto no será fácil: «La dimensión humana de la moderación profesional debe estar siempre presente. Es evidente que las tácticas de desinformación también están evolucionando en paralelo con las tácticas de moderación automatizadas, y es difícil prever lo que sucederá a continuación».

Majó destacó el ejemplo del Comité Asesor del Meta, que se centra en temas extremadamente sensibles. A Musk le ha resultado difícil aceptar consejos externos. También fue terriblemente lento para resolver los puntos conflictivos. Ahora es mejor pensar dos veces antes de la nueva directiva, aunque la UE le ha advertido: «La obligación persiste. Se puede huir, pero no esconderse», afirmó el Comisario Thierry Breton.

Mientras Musk impulsa estas anotaciones, otras redes se han vuelto indiferentes a los esfuerzos que realizan para modificar sus plataformas. «Existe una tendencia importante dentro de la plataforma a retirar gradualmente el contenido político», explicó Mayo.

Un artículo científico de 2022 de la Universidad Purdue en Estados Unidos analizó el sistema entonces conocido como Birdwatch. Sus resultados encontraron menos información errónea, pero también menos actividad. Esta actividad puede haber sido impulsada por el miedo a retuitear o amplificar un mensaje, que eventualmente sería «castigado» por la corrección por parte de otros usuarios: «Los resultados del estudio mostraron que si bien el programa ayudó a aumentar el conocimiento de la escritura, reducir las emociones extremas y reducir los errores en el contenido La información puede conducir a una reducción de la actividad de la plataforma, con costos económicos», escribieron los autores.

Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y Twitter o registrarte aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí