Tecnología

Molly Russell: ¿Cómo están reguladas las redes sociales y cómo podrían cambiar?

0

La investigación sobre la muerte de Molly Russell ha vuelto a poner el foco en la regulación de las plataformas de redes sociales y en la necesidad de mejorar los sistemas para proteger a los usuarios de contenidos nocivos.

Se sabe que la joven de 14 años, de Harrow, al noroeste de Londres, vio material relacionado con temas como la depresión, la autolesión y el suicidio antes de acabar con su vida en noviembre de 2017, lo que llevó a su familia a hacer campaña para mejorar la seguridad en Internet.

Actualmente, la mayoría de las plataformas de redes sociales y motores de búsqueda que operan en el Reino Unido no están sujetas a ninguna normativa a gran escala que se refiera específicamente a la seguridad de los usuarios, más allá de un puñado de leyes que hacen referencia al envío de comunicaciones electrónicas amenazantes o indecentes.

En su lugar, se confía en que estas plataformas se autorregulen, utilizando una mezcla de moderadores humanos e inteligencia artificial para encontrar y retirar material ilegal o dañino de forma proactiva o cuando los usuarios se lo comunican.

Hay muy poca regulación de las redes sociales en el Reino Unido

Matt Navarra, experto en redes sociales

Las plataformas establecen qué tipos de contenidos están y no están permitidos en sus sitios en sus condiciones de servicio y en las directrices de la comunidad, que se actualizan periódicamente para reflejar la evolución de los temas y las tendencias que aparecen en el mundo digital, que se mueve rápidamente.

Sin embargo, los críticos dicen que este sistema es defectuoso por una serie de razones, incluyendo que lo que se considera seguro o aceptable en línea puede variar ampliamente de un sitio a otro, y muchos sistemas de moderación tienen dificultades para mantenerse al día con la gran cantidad de contenido que se publica.

También se ha planteado la preocupación por el funcionamiento de los algoritmos que se utilizan para ofrecer a los usuarios contenidos que una plataforma cree que pueden interesarles; a menudo esto se basa en los hábitos de un usuario en el sitio y puede significar que alguien que busca material relacionado con la depresión o la autolesión podría recibir más de eso en el futuro.

Además, algunas plataformas argumentan que ciertos tipos de contenido que no son ilegales -pero que podrían ser considerados ofensivos o potencialmente dañinos por algunos- deberían ser permitidos en línea para proteger la libertad de expresión.

Como resultado, hoy en día se pueden encontrar grandes cantidades de contenido dañino en las redes sociales, ya que las plataformas luchan por moderar la gran cantidad de contenido que se publica y el acto de equilibrio de permitir a los usuarios expresarse mientras intentan mantener sus espacios en línea seguros.

Durante la investigación, los directivos de Meta y Pinterest pusieron de manifiesto estos problemas.

Judson Hoffman, ejecutivo de Pinterest, admitió que la plataforma “no era segura” cuando Molly accedió a ella en 2017 porque no contaba con la tecnología que tiene ahora.

Y las pruebas de la ejecutiva de Meta, Elizabeth Lagone, destacaron el problema de entender el contexto de ciertas publicaciones cuando dijo que algunos de los contenidos vistos por Molly eran “seguros” o “matizados y complicados”, argumentando que en algunos casos era “importante” dar voz a las personas si estaban expresando pensamientos suicidas.

Durante la investigación, el forense Andrew Walker dijo que la oportunidad de hacer que las redes sociales sean seguras no debe “perderse”, ya que expresó su preocupación por las plataformas.

Destacó una serie de preocupaciones que incluyen la falta de separación de niños y adultos en las redes sociales; la verificación de la edad y el tipo de contenido disponible y recomendado por los algoritmos a los niños; y la insuficiente supervisión de los padres para los menores de 18 años.

El plan del Reino Unido para cambiar este panorama es el proyecto de ley de seguridad en línea, que por primera vez obligaría a las plataformas a proteger a los usuarios de los daños en línea, en particular a los niños, exigiéndoles que retiren los contenidos ilegales y otros perjudiciales, y que se volverá a presentar en el Parlamento en breve.

Las empresas incluidas en el ámbito de aplicación tendrán que explicar claramente en sus condiciones de servicio qué contenidos consideran aceptables y cómo piensan evitar que sus usuarios vean material perjudicial.

También se espera que se exija a las empresas que sean más transparentes sobre el funcionamiento de sus algoritmos y que establezcan claramente cómo se protegerá a los usuarios más jóvenes de los daños.

La nueva normativa será supervisada por Ofcom y aquellos que incumplan las reglas podrían enfrentarse a grandes multas o ser bloqueados en el Reino Unido.

Se espera que la conclusión de la investigación sobre la muerte de Molly haga que se renueven los llamamientos para que se introduzcan rápidamente las nuevas normas.

El proyecto de ley de seguridad en línea tiene como objetivo abordar la responsabilidad limitada de las plataformas de medios sociales mediante la creación de nuevas leyes que obliguen a las plataformas de medios sociales a tomar medidas o establecer medidas que protejan a los usuarios de una serie de daños en línea

Matt Navarra, medios socialesexperto

El experto en redes sociales y comentarista del sector, Matt Navarra, dijo que el proyecto de ley podría colmar algunas de las lagunas en la protección de las personas en línea.

“Hay muy poca regulación de las redes sociales en el Reino Unido”, dijo.

“La mayor parte de la que ya existe está relacionada con la publicidad, la ley de derechos de autor, las leyes de difamación y calumnia y un conjunto limitado de leyes específicas para proteger a las personas de las amenazas de violencia, el acoso y el comportamiento ofensivo, indecente y amenazante en línea.

“Y muy pocas de estas leyes se centran en la responsabilidad de las grandes plataformas tecnológicas de manera significativa.

“Estas leyes están ahí para los litigios entre individuos y empresas, más que para las grandes plataformas tecnológicas que alojan los contenidos o la actividad dañina.

“El proyecto de ley de seguridad en línea tiene como objetivo abordar la responsabilidad limitada de las plataformas de medios sociales mediante la creación de nuevas leyes que obliguen a las plataformas de medios sociales a tomar medidas o establecer medidas que protejan a los usuarios de una serie de daños en línea.”

Por qué Alex Jones se enfrenta de nuevo a un juicio por sus mentiras sobre el ‘bulo’ de Sandy Hook – y lo que podría costarle

Previous article

El Papa dice que el mundo se enfrenta a una “amenaza atómica” y pide a Zelensky que se abra a las conversaciones de paz

Next article

You may also like

Comments

Comments are closed.

More in Tecnología