Tecnología

Microsoft retira la polémica IA que puede adivinar tus emociones

0

Microsoft ha anunciado que suspenderá las ventas de un servicio de inteligencia artificial capaz de predecir la edad, el sexo e incluso las emociones de una persona.

El gigante tecnológico citó preocupaciones éticas en torno a la tecnología de reconocimiento facial, que, según afirmó, podría someter a las personas a “estereotipos, discriminación o denegación injusta de servicios”.

En una entrada de blog publicada el martes, Microsoft esbozó las medidas que tomaría para garantizar que su Face API se desarrollara y utilizara de forma responsable.

“Para mitigar estos riesgos, hemos optado por no apoyar un sistema de propósito general en la API de la cara que pretende inferir estados emocionales, el género, la edad, la sonrisa, el vello facial, el pelo y el maquillaje,” escribió Sarah Bird, un gerente de producto en Microsoft’s Azure AI.

“La detección de estos atributos ya no estará disponible para los nuevos clientes a partir del 21 de junio de 2022, y los clientes existentes tienen hasta el 30 de junio de 2023 para dejar de utilizar estos atributos antes de que sean retirados.

La API facial de Microsoft era utilizada por empresas como Uber para verificar que el conductor que utilizaba la aplicación coincidía con la cuenta registrada, pero los conductores sindicalizados del Reino Unido pidieron que se retirara porque no reconocía a los conductores legítimos.

La tecnología también suscitó temores sobre posibles usos indebidos en otros entornos, como empresas que la utilizan para controlar a los candidatos durante las entrevistas de trabajo.

A pesar de retirar el producto para los clientes, Microsoft seguirá utilizando la controvertida tecnología en al menos uno de sus productos. Una aplicación para personas con discapacidad visual llamada Seeing AI seguirá haciendo uso de las capacidades de visión artificial.

Microsoft también anunció que actualizaría su “Estándar de IA responsable”, un manual interno que guía el desarrollo de productos de IA, para mitigar los riesgos sociotécnicos que plantea la tecnología.

Se realizaron consultas con investigadores, ingenieros, expertos en políticas y antropólogos para ayudar a comprender qué salvaguardias pueden ayudar a prevenir la discriminación.

“Reconocemos que para que los sistemas de IA sean dignos de confianza, tienen que ser soluciones adecuadas a los problemas que están diseñados para resolver,” escribió Natasha Crampton, jefe responsable de IA de Microsoft, en una entrada de blog separada .

“Creemos que la industria, el mundo académico, la sociedad civil y los gobiernos deben colaborar para avanzar en el estado del arte y aprender unos de otros… Un futuro mejor y más equitativo requerirá nuevas barreras para la IA.

Un algoritmo de IA podría ayudar a crear espacios seguros frente a los abusos en línea

Previous article

Bryan Kohberger debería ‘suspender en criminología’ por su ‘condenatoria’ declaración jurada sobre los asesinatos de Idaho, según su abogado

Next article

You may also like

Comments

Comments are closed.

More in Tecnología