El nuevo chatbot de Meta ha sido criticado después de que apareciera publicando comentarios antisemitas.
La semana pasada, la empresa matriz de Facebook anunció lo que llamó “BlenderBot 3”, la última versión de su sistema de chat artificialmente inteligente.
Meta admitió que el sistema aún no era perfecto y que mejoraría con el tiempo. Dice que aprende de las interacciones con los humanos y de los comentarios sobre esos chats, por lo que mejorará.
Pero parece que algunos ya han encontrado esas imperfecciones: incluso han visto comentarios antisemitas por parte del bot. Wall Street Journal el reportero Jeff Horwitz compartió capturas de pantalla del sistema diciendo que los judíos estaban “sobrerrepresentados entre los súper ricos de Estados Unidos”.
También compartió conversaciones en las que el sistema parecía sugerir que Donald Trump seguía siendo presidente y que debía cumplir más de los dos mandatos constitucionalmente limitados.
El sistema parecía incluso criticar a la empresa que lo creó, hablando de la desinformación en Facebook y de la cantidad de noticias falsas en la plataforma.
Pero al mismo tiempo, otros usuarios consideraron que el bot era progresista en temas como el racismo. En un artículo sobre Gizmodo, el escritor Mack DeGeurin descubrió que las conversaciones con el bot sugerían que era activamente antirracista, y que seguía expresar esas opiniones incluso cuando la conversación parecía haber terminado.
Meta dijo que el sistema era capaz de recordar conversaciones, y que había sido entrenado con una gran cantidad de datos, lo que presumiblemente significa que el texto en el que se basaba para hablar había procedido de una serie de fuentes diferentes.
Los expertos en IA han advertido en repetidas ocasiones que estos sistemas arrastran los mismos sesgos que están presentes en los datos que se utilizan para entrenarlos, lo que significa que pueden reflejar el racismo u otros prejuicios de la sociedad que los ha creado.
En su anuncio del bot, Meta subrayó que el bot aún podía hacer comentarios problemáticos y que buscaba mejorar su conversación con el tiempo.
“Dado que se sabe que todos los chatbots de IA conversacional a veces imitan y generan comentarios inseguros, sesgados u ofensivos, hemos realizado estudios a gran escala, coorganizado talleres y desarrollado nuevas técnicas para crear salvaguardas para BlenderBot 3”, escribió la compañía.
“A pesar de este trabajo, BlenderBot todavía puede hacer comentarios groseros u ofensivos, por lo que estamos recogiendo comentarios que ayudarán a mejorar los futuros chatbots.”
En el mismo anuncio, Meta dijo que el chatbot se mejoraría con el tiempo. También señaló que algunas personas no tienen “buenas intenciones” cuando utilizan estos sistemas y que había “desarrollado nuevos algoritmos de aprendizaje para distinguir entre las respuestas útiles y los ejemplos perjudiciales”. “Con el tiempo, utilizaremos esta técnica para hacer que nuestros modelos sean más responsables y seguros para todos los usuarios”, dijo.
Comments