Meta ha preguntado a su junta de supervisión si sus medidas contra la desinformación sobre el coronavirus deben seguir vigentes.
La compañía, propietaria de Facebook, Instagram y WhatsApp, inicialmente solo eliminaba la desinformación cuando los socios locales con experiencia relevante le decían que un contenido concreto (como una publicación específica en Facebook) podía contribuir a un riesgo de daño físico inminente.
Con el tiempo, sus políticas se ampliaron para eliminar categorías enteras de afirmaciones falsas a escala mundial
Ahora, sin embargo, la empresa ha preguntado a la junta -que cuenta con 20 miembros, entre ellos políticos, abogados y académicos, y está financiada por un fondo de 130 millones de dólares del gigante de las redes sociales- si debería “abordar esta información errónea a través de otros medios, como el etiquetado o la degradación, ya sea directamente o a través de nuestro programa de verificación de hechos de terceros.”
En general, las políticas de Meta de eliminación de contenidos tuvieron resultados mixtos debido a su cuestionable eficacia.
Los investigadores que realizaron experimentos en la plataforma descubrieron que a dos cuentas nuevas que habían creado se les recomendaron 109 páginas que contenían información antivacunas en sólo dos días.
Ahora, sin embargo, el presidente de asuntos globales de Meta y ex viceprimer ministro del Reino Unido, Nick Clegg, afirma que “la vida está volviendo cada vez más a la normalidad” en algunos países.
“Este no es el caso en todas partes y el curso de la pandemia seguirá variando significativamente en todo el mundo, especialmente en los países con bajas tasas de vacunación y sistemas sanitarios menos desarrollados. Es importante que cualquier política que aplique Meta sea adecuada para toda la gama de circunstancias en que se encuentran los países.”
Meta pide orientación porque “resolver las tensiones inherentes entre la libertad de expresión y la seguridad no es fácil, especialmente cuando nos enfrentamos a retos sin precedentes y de rápida evolución, como ha sido la pandemia”, escribió.
Durante la pandemia, el jefe de realidad virtual de Meta, Andrew Bozworth, dijo que “los seres humanos individuales son los que eligen creer o no creer una cosa. Son ellos los que eligen compartir o no compartir una cosa”, y añadió que no se sentía “cómodo en absoluto diciendo que no tienen voz porque no me gusta lo que han dicho.”
Continuó: “Si su democracia no puede tolerar el discurso de la gente, no estoy seguro de qué clase de democracia es”. [Facebook is] una tecnología fundamentalmente democrática”.
A estudio realizado por la organización sin ánimo de lucro Centre for Countering Digital Hate y Anti-Vax Watch sugirió que cerca del 65% de la desinformación relacionada con las vacunas en Facebook procedía de 12 personas. Los investigadores también afirmaron que los algoritmos de recomendación estaban en el centro del problema, que por lo general siguen estando diseñados para impulsar el contenido que atrae a la mayor cantidad de personas, independientemente de lo que sea, incluso las teorías conspirativas.
“Durante mucho tiempo las empresas lo toleraron porque decían: ‘¿A quién le importa si la Tierra es plana, a quién le importa si crees en los chemtrails? Parecía inofensivo”, dijo Hany Farid, investigador de desinformación y profesor de la Universidad de California en Berkeley.
“El problema con estas teorías de la conspiración que quizás parecían tontas e inofensivas es que han llevado a una desconfianza general en los gobiernos, las instituciones, los científicos y los medios de comunicación, y eso ha preparado el escenario de lo que estamos viendo ahora.”
En un comunicado, el Centro para Contrarrestar el Odio Digital, dijo que la solicitud de Meta a su junta de supervisión estaba “diseñada para distraer la atención de la incapacidad de Meta para actuar sobre una avalancha de teorías conspirativas antivacunas difundidas por mentirosos oportunistas” durante la pandemia de coronavirus.
“La investigación del CCDH, así como el propio análisis interno de Meta, muestra que la mayoría de la desinformación antivacunas se origina en un pequeño número de malos actores muy prolíficos. Pero Meta no ha actuado sobre figuras clave que siguen llegando a millones de seguidores en Facebook e Instagram”, dijo Callum Hood, jefe de investigación del CCDH.
“Plataformas como Meta no deberían tener poder absoluto sobre cuestiones de vida o muerte como esta, que afectan a miles de millones de personas. Es hora de que la gente en el Reino Unido y en otros lugares tenga una supervisión democrática de las decisiones que cambian la vida tomadas a miles de kilómetros de distancia en Silicon Valley.”
Comments