La asistente de voz Alexa de Amazon le recomendó a una niña de 10 años que se electrocutara a sí misma como parte de un “desafío”.
Kristin Livdahl publicó en Twitter que la asistente de voz recomendó la acción después de que su hija pidió un desafío.
“Aquí hay algo que encontré en la web”, respondió Amazon, “El desafío es simple: enchufar un cargador de teléfono hasta la mitad en un tomacorriente de pared, luego tocar con un centavo las clavijas expuestas”.
La Sra. Livdahl dijo que ella y su hija estaban haciendo algunos “desafíos físicos” y que su hija quería otro.
“Yo estaba allí y grité: ¡No, Alexa, no!” como si fuera un perro. Mi hija dice que es demasiado inteligente para hacer algo así ”, tuiteó.
Amazon dice que ahora ha eliminado el desafío de su base de datos.
“La confianza del cliente está en el centro de todo lo que hacemos y Alexa está diseñada para proporcionar información precisa, relevante y útil a los clientes”, dijo un portavoz de Amazon en un comunicado. “Tan pronto como nos dimos cuenta de este error, tomamos medidas rápidas para solucionarlo”.
Los asistentes de voz como Google, Siri y Alexa obtienen su información de los motores de búsqueda comunes, pero no tienen la capacidad de verificar la información de manera efectiva y, como tales, pueden proporcionar resultados falsos u ofensivos.
En diciembre de 2020, se descubrió que Alexa repetía comentarios conspiradores y racistas. Cuando se le preguntó si el Islam es malvado, un resultado que respondió Alexa fue: “Aquí hay algo que encontré en la web. De acuerdo a [a website], El Islam es una religión malvada “.
En 2018, el asistente de voz Siri de Apple pensó que Donald Trump era un pene, debido a que alguien destrozó la página de Wikipedia del actual presidente y Siri extrajo la información de allí.
Comments