Tecnología

La tecnología de análisis de las emociones podría conducir a la discriminación, advierte el organismo de control

0

Las empresas no deberían confiar en tecnologías biométricas “inmaduras” que pretenden ofrecer un análisis emocional del personal, ha dicho la Oficina del Comisionado de Información (ICO), advirtiendo que dicha tecnología podría discriminar a algunas personas.

La intervención del organismo de control de la protección de datos se refiere a la tecnología impulsada por la IA que pretende analizar aspectos como los movimientos y expresiones faciales, la marcha e incluso el seguimiento de la mirada, como forma de controlar la salud y el bienestar de los trabajadores.

La ICO dijo que el proceso de recopilación de datos personales que puede centrarse en las respuestas subconscientes de comportamiento o emocionales para tratar de entender las emociones era mucho más arriesgado que las tecnologías biométricas más tradicionales que se utilizan para verificar la identidad de una persona.

Dijo que los algoritmos utilizados en estos sistemas, que no han sido suficientemente desarrollados para detectar las señales emocionales, podrían mostrar sesgos o incluso discriminar a algunas personas.

Los únicos despliegues biométricos sostenibles serán los que sean totalmente funcionales, responsables y estén respaldados por la ciencia

Stephen Bonner, ICO

El regulador ha instado a las organizaciones a que evalúen el riesgo público antes de utilizar dicha tecnología, y ha advertido de que se investigará a las empresas que no actúen de forma responsable, que supongan un riesgo para las personas vulnerables o que no cumplan las expectativas del ICO.

“Los desarrollos en el mercado de la biometría y la IA emocional son inmaduros. Es posible que no funcionen todavía, o de hecho nunca”, dijo el subcomisario de la ICO, Stephen Bonner.

“Aunque hay oportunidades presentes, los riesgos son actualmente mayores.

“En el ICO nos preocupa que un análisis incorrecto de los datos pueda dar lugar a suposiciones y juicios sobre una persona que sean inexactos y conduzcan a la discriminación”.

“Los únicos despliegues biométricos sostenibles serán aquellos que sean totalmente funcionales, responsables y respaldados por la ciencia.

“Tal y como están las cosas, todavía no hemos visto que se desarrolle ninguna tecnología de IA emocional que satisfaga los requisitos de protección de datos, y tenemos preguntas más generales sobre la proporcionalidad, la equidad y la transparencia en este ámbito.

“La ICO continuará examinando el mercado, identificando a las partes interesadas que buscan crear o desplegar estas tecnologías, y explicando la importancia de mejorar la privacidad de los datos y el cumplimiento, al tiempo que fomenta la confianza en el funcionamiento de estos sistemas.”

La ICO también confirmó que publicaría nuevas orientaciones sobre la tecnología biométrica en la primavera del año que viene para ayudar a las empresas a entender mejor cómo y cuándo utilizar la tecnología.

Miles de mujeres negras faltan en el sector de las tecnologías de la información, según un informe

Previous article

Elon Musk inicia la toma de control de Twitter al despedir a sus principales ejecutivos, incluido Parag Agrawal, según un informe

Next article

You may also like

Comments

Comments are closed.

More in Tecnología