Meta, la empresa matriz de Facebook e Instagram, habría dicho a los moderadores que “se equivoquen con los adultos” al moderar fotos o vídeos de jóvenes.
Antigone Davis, jefa de seguridad de Meta, dijo al New York Times que la política proviene de la preocupación por la privacidad de las personas que publican imágenes sexuales de adultos. “El abuso sexual de los niños en Internet es aborrecible”, dijo Davis.
Sin embargo, hay millones de fotos y vídeos moderados a medida que se suben a Facebook, y la empresa realiza 27 millones de informes de sospecha de abuso infantil en 2021. Aun así, los expertos siguen creyendo que es probable que los moderadores pasen por alto a algunos menores.
Los moderadores de contenido que trabajaron para Meta dijeron, según se informa, que todos los días se encontraban con imágenes sexuales que se verían afectadas por esta política y que se enfrentarían a evaluaciones de rendimiento negativas si hacían demasiados informes erróneos.
“Dejaban pasar tantas cosas que al final ya no sacábamos el tema”, dijo un ex moderador. “Tenían alguna excusa loca y extravagante como: ‘Esa parte borrosa podría ser vello púbico, así que tenemos que errar por ser un adulto joven'”.
Facebook y otras empresas tecnológicas utilizan los “estadios de Tanner” para determinar las etapas de la pubertad; se trata de una herramienta desarrollada por el pediatra Dr. James Tanner en la década de 1960, pero no está diseñada para determinar la edad. No obstante, la Sra. Davis afirma que se trata de “sólo un factor para estimar la edad”. También podría incluir el desarrollo muscular o la cara del niño.
Las empresas como Meta deben informar sobre el material de abuso sexual infantil “aparente”, pero la ley no define la palabra “aparente”. La Sra. Davis dijo que no estaba claro si la ley protegería a Meta si denunciaba erróneamente una imagen.
Apple, Snap, propietaria de Snapchat, y TikTok dijeron al Times que adoptan el enfoque opuesto al de Meta: denunciar cualquier imagen sexual en duda.
“Denunciamos más material al Centro Nacional para Niños Desaparecidos y Explotados que, literalmente, todas las demás plataformas tecnológicas juntas, porque somos los más agresivos. Lo que hace falta es que los legisladores establezcan una norma clara y coherente para que todas las plataformas la sigan”, dijo un portavoz de Meta.
Comments