La prohibición de grupos que publican contenidos antivacunas en Facebook promovió más contenidos de este tipo en Twitter en el mes siguiente, según un nuevo estudio que puede llevar a una reevaluación de las medidas políticas destinadas a abordar la desinformación sobre las vacunas.
Los científicos advierten que los contenidos antivacunas y la desinformación relacionada con la salud en las redes sociales se han visto amplificados por la pandemia de Covid-19.
Afirman que las 150 cuentas de medios sociales antivacunas más grandes han ganado al menos 7,8 millones de seguidores desde 2019, creciendo casi una quinta parte durante el período.
Mientras que un número creciente de plataformas de medios sociales están tomando un papel activo en la moderación del contenido, los científicos, incluyendo Tamar Mitts de la Universidad de Columbia en Nueva York, dicen que se sabe poco sobre los efectos indirectos de dicha regulación del discurso en línea a través de las plataformas.
En un nuevo estudio, presentado en WebSci ’22: 14ª Conferencia ACM de Ciencias de la Web 2022, los investigadores analizaron el impacto de la eliminación de los grupos que promueven contenidos antivacunas en Facebook sobre el compromiso con contenidos similares en Twitter.
Como parte de la investigación, los científicos siguieron a 160 grupos de Facebook que discutían las vacunas Covid-19 y rastrearon su eliminación de la plataforma entre abril y septiembre de 2021.
Los investigadores también identificaron a los usuarios que citaron estos grupos de Facebook en Twitter y luego examinaron su comportamiento en línea a lo largo del tiempo.
El estudio descubrió que los usuarios que citaban los grupos de Facebook eliminados promovían más contenido antivacunas en Twitter en el mes siguiente a las eliminaciones.
Una de las conclusiones del estudio, según los investigadores, es que los usuarios expuestos a la eliminación de páginas antivacunas de Facebook se comprometen más con esas ideas en su actividad en Twitter, publicando cada vez más contenidos antivacunas.
Basándose en la investigación, los científicos dicen que es necesario un enfoque multiplataforma para que la moderación de contenidos funcione.
En comparación con las cuentas de Twitter que citaban grupos de Facebook que no fueron eliminados, los científicos afirman que los usuarios que citaban los grupos de Facebook eliminados utilizaban entre un 10 y un 33 por ciento más de palabras clave antivacunas en la plataforma de microblogging.
“Nuestros resultados sugieren que la retirada de contenidos antivacunas en una plataforma puede dar lugar a un aumento de la producción de contenidos similares en otras plataformas, lo que plantea dudas sobre la eficacia general de estas medidas”, escribieron los científicos en el estudio.
Los científicos afirman que también es necesario desarrollar un modelo mejor para estimar la probabilidad de que una idea expresada en una plataforma de medios sociales se haya originado en otra.
Comments