Tecnología

Lensa AI: La herramienta que convierte tus fotos en impresionantes retratos recibe cada vez más críticas

0

Una herramienta que genera impresionantes retratos utilizando IA está siendo golpeada por crecientes críticas sobre su ética y privacidad.

Lensa AI se ha disparado a la cima de la App Store, con sus retratos artísticos convirtiéndose en un rápido éxito. Funciona haciendo que los usuarios alimenten su sistema con 10 o 20 fotos de sí mismos, que luego pasan por un modelo para convertirlas en retratos en una variedad de estilos artísticos, y por los que deben pagar para luego tener acceso a las imágenes.

Esas imágenes se han hecho virales a medida que los usuarios las publican en las redes sociales y empiezan a utilizarlas como avatares.

Pero ese mismo éxito ha suscitado preocupación por la forma en que el sistema de IA y otros similares podrían estar violando tanto la privacidad de las personas que lo utilizan como la propiedad artística de las personas que crearon los estilos de los que toma prestado.

Las preocupaciones sobre la privacidad han perseguido a muchas aplicaciones de edición de fotos, especialmente aquellas que aparentemente se han popularizado muy rápidamente. (La app existe desde 2018, pero la foto de retrato con IA se añadió en noviembre y gran parte de su popularidad se ha producido desde entonces).

En 2019, por ejemplo, surgieron preocupaciones similares en torno a FaceApp, que permite a los usuarios subir fotos y hacer que se vuelvan antiguas, y luego sucedió lo mismo en 2020 con otra aplicación llamada Reface que permitía a las personas poner su imagen encima de GIFs famosos. Las imágenes se volvieron virales, pero también lo hicieron las preocupaciones sobre cómo la empresa podía utilizar las imágenes que se subían y si eran seguras.

En ambos casos, las aplicaciones intentaban asegurar a los usuarios que las imágenes sólo se guardaban para que la aplicación pudiera funcionar y que no se abusaría de ellas. Pero la preocupación surgió de una redacción similar en sus términos y condiciones, que era bastante general sobre los derechos que tenían los usuarios sobre las imágenes que subían.

Lensa AI ha sido objeto de preocupaciones similares, como resultado de una redacción similar. Sus condiciones le otorgan “todos los derechos sobre tus contenidos de usuario”, lo que incluye la opción de utilizarlos de muy diversas formas.

La razón por la que muchas aplicaciones incluyen este tipo de condiciones suele ser que redactarlas en los términos más amplios permite a las empresas evitar el riesgo de sobrepasar sus permisos. Pero también significa que los usuarios tienen pocas posibilidades de controlar el uso que se hace de sus imágenes una vez subidas, y ninguna forma real de recurso en caso de que se sientan molestos por lo que les está ocurriendo.

Lensa afirma en su política de privacidad que las imágenes sólo se utilizan para los efectos. Y la empresa dijo a TechCrunch que las imágenes se eliminan una vez que se han utilizado en su sistema de IA, aunque esto también ha provocado cierta preocupación por el hecho de que las imágenes de las personas se estén introduciendo en un conjunto de datos que podrían no comprender del todo.

Se han expresado otras preocupaciones sobre el contenido de esas imágenes, más que sobre cómo se están produciendo. El sistema utilizado para crearlas -denominado Stable Diffusion- se entrenó con un conjunto de imágenes que inevitablemente incluirá algunos sesgos, y muchos usuarios informan de que el sistema aparece mejor cuando se utiliza con fotos de personas blancas, que pueden haber estado más presentes en los datos originales.

Stable Diffusion también se ha enfrentado a críticas por la forma en que se puede utilizar para crear material pornográfico, sin el consentimiento de la persona representada, y dado que Lensa AI se basa en el mismo sistema, podría encontrarse con algunos de los mismos problemas. Dentro de la comunidad artística de la IA se está debatiendo si debería ser posible utilizar el sistema de esta manera – y una actualización reciente trajo cambios que hicieron más difícil hacer imágenes NSFW y más.

Otras críticas se han centrado en estos sistemas de IA de forma más general que en el caso de la popular aplicación de retratos. Muchos de estos sistemas han sido acusados de robar el estilo -y a veces las propias imágenes- de artistas y utilizarlas sin permiso.

En algunos sistemas, por ejemplo, es posible ordenar explícitamente a la IA que genere una imagen con el estilo de un artista concreto. (El artista no es recompensado por el uso de su estilo -y puede que ni siquiera haya sido consciente de que su arte fue introducido en el sistema en primer lugar-, por lo que los críticos han argumentado que este tipo de herramientas están arrebatando valioso dinero y crédito a los artistas visuales.

Prisma Labs, la empresa que está detrás de la aplicación, trató de abordar algunas de las preocupaciones sobre su funcionamiento en un hilo detweets. Abordaba tanto las preocupaciones éticas sobre lo que está haciendo con el arte como las inquietudes sobre lo que podría estar ocurriendo con las imágenes que produce.

“En cuanto se generan los avatares, las fotos del usuario y el modelo asociado se borran permanentemente de nuestros servidores. Y el proceso volvería a empezar para la siguiente solicitud”, escribió en un post.

En otro, afirmaba que el uso de la IA en el arte no convertiría a los artistas en inútiles.

“La IA produce imágenes únicas basadas en los principios derivados de los datos, pero no puede idear e imaginar cosas por sí misma. Al igual que el cine no mató al teatro y el software de contabilidad no ha erradicado la profesión, la IA no sustituirá a los artistas, sino que puede convertirse en una gran herramienta de ayuda”, wote.

“También creemos que la creciente accesibilidad de las herramientas impulsadas por IA no hará sino valorar y apreciar más el arte hecho por el hombre en su excelencia creativa, ya que toda industrialización aporta más valor a las obras hechas a mano.”

Pero ese hilo llevó a más críticas, en particular de personas que señalaron que los datos utilizados para entrenar el modelo eran imágenes artísticas de personas, y que al hacerlo podrían estar robando su estilo.

“Estáis utilizando el trabajo de otros para imitar y entrenar al ordenador y replicar el estilo de los artistas”, escribió un usuario. “Nunca apoyaré a ninguna empresa así, y puedo ver que muchos otros piensan lo mismo”.

Los republicanos buscan atacar a los ex funcionarios de inteligencia que expresaron dudas sobre la historia del correo electrónico de Hunter Biden

Previous article

El escándalo de corrupción de Bruselas es un ejemplo extremo de algo muy común

Next article

You may also like

Comments

Comments are closed.

More in Tecnología