El presidente Joe Biden dijo el viernes que los nuevos compromisos de Amazon, Google, Meta, Microsoft y otras empresas que lideran el desarrollo de tecnología de inteligencia artificial para cumplir con un conjunto de medidas de seguridad de IA negociadas por su Casa Blanca son un paso importante hacia la gestión de la “enorme” promesa y los riesgos que plantea la tecnología.
Biden anunció que su administración ha obtenido compromisos voluntarios de siete empresas estadounidenses destinados a garantizar que sus productos de IA sean seguros antes de lanzarlos. Algunos de los compromisos exigen la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de inteligencia artificial, aunque no detallan quién auditará la tecnología o responsabilizará a las empresas.
“Debemos tener una visión clara y estar atentos a las amenazas que pueden plantear las tecnologías emergentes”, dijo Biden, y agregó que las empresas tienen la “obligación fundamental” de garantizar que sus productos sean seguros.
“Las redes sociales nos han mostrado el daño que la tecnología poderosa puede causar sin las medidas de seguridad adecuadas”, agregó Biden. “Estos compromisos son un paso prometedor, pero tenemos mucho más trabajo por hacer juntos”.
Una oleada de inversión comercial en herramientas de IA generativa que pueden escribir texto convincentemente similar al humano y producir nuevas imágenes y otros medios ha despertado la fascinación del público, así como la preocupación por su capacidad para engañar a las personas y difundir desinformación, entre otros peligros.
Los cuatro gigantes tecnológicos, junto con OpenAI, el fabricante de ChatGPT, y las nuevas empresas Anthropic e Inflection, se comprometieron a realizar pruebas de seguridad “realizadas en parte por expertos independientes” para protegerse contra los principales riesgos, como la bioseguridad y la ciberseguridad, dijo la Casa Blanca en un comunicado.
Esa prueba también examinará el potencial de daños sociales, como el sesgo y la discriminación, y más peligros teóricos sobre los sistemas avanzados de IA que podrían obtener el control de los sistemas físicos o “auto-replicarse” al hacer copias de sí mismos.
Las empresas también se han comprometido con los métodos para informar sobre las vulnerabilidades de sus sistemas y con el uso de marcas de agua digitales para ayudar a distinguir entre las imágenes reales y las generadas por IA, conocidas como falsificaciones profundas.
También informarán públicamente sobre fallas y riesgos en su tecnología, incluidos los efectos sobre la equidad y el sesgo, dijo la Casa Blanca.
Los compromisos voluntarios están destinados a ser una forma inmediata de abordar los riesgos antes de un impulso a más largo plazo para lograr que el Congreso apruebe leyes que regulen la tecnología. Los ejecutivos de la compañía planean reunirse con Biden en la Casa Blanca el viernes para comprometerse a seguir los estándares.
Algunos defensores de las regulaciones de IA dijeron que el movimiento de Biden es un comienzo, pero que se necesita hacer más para responsabilizar a las empresas y sus productos.
“Una deliberación a puertas cerradas con actores corporativos que resulte en salvaguardas voluntarias no es suficiente”, dijo Amba Kak, director ejecutivo del AI Now Institute. “Necesitamos una deliberación pública mucho más amplia, y eso va a plantear problemas con los que las empresas casi seguramente no se comprometerán voluntariamente porque conduciría a resultados sustancialmente diferentes, que pueden tener un impacto más directo en sus modelos de negocios”.
El líder de la mayoría del Senado, Chuck Schumer, DN.Y., ha dicho que presentará una legislación para regular la IA. Dijo en un comunicado que trabajará en estrecha colaboración con la administración de Biden “y nuestros colegas bipartidistas” para desarrollar las promesas hechas el viernes.
Varios ejecutivos de tecnología han pedido una regulación y varios fueron a la Casa Blanca en mayo para hablar con Biden, la vicepresidenta Kamala Harris y otros funcionarios.
El presidente de Microsoft, Brad Smith, dijo en una publicación de blog el viernes que su compañía está asumiendo algunos compromisos que van más allá de la promesa de la Casa Blanca, incluido el apoyo a la regulación que crearía un “régimen de licencias para modelos de alta capacidad”.
Pero a algunos expertos y competidores emergentes les preocupa que el tipo de regulación que se propone pueda ser de gran ayuda para los pioneros con mucho dinero liderados por OpenAI, Google y Microsoft, ya que los jugadores más pequeños se ven desplazados por el alto costo de hacer que sus sistemas de IA sean conocidos como grandes modelos de lenguaje que se adhieren a las restricciones regulatorias.
El compromiso de la Casa Blanca señala que en su mayoría solo se aplica a los modelos que “son en general más poderosos que la frontera actual de la industria”, establecidos por los modelos disponibles actualmente como GPT-4 de OpenAI y el generador de imágenes DALL-E 2 y versiones similares de Anthropic, Google y Amazon.
Varios países han estado buscando formas de regular la IA, incluidos los legisladores de la Unión Europea que han estado negociando reglas generales de IA para el bloque de 27 naciones que podrían restringir las aplicaciones consideradas de mayor riesgo.
El secretario general de la ONU, Antonio Guterres, dijo recientemente que las Naciones Unidas son “el lugar ideal” para adoptar estándares globales y nombró una junta que informará sobre las opciones para la gobernanza global de la IA antes de fin de año.
Guterres también dijo que agradecía los llamados de algunos países para la creación de un nuevo organismo de la ONU para apoyar los esfuerzos globales para gobernar la IA, inspirado en modelos como la Agencia Internacional de Energía Atómica o el Panel Intergubernamental sobre el Cambio Climático.
La Casa Blanca dijo el viernes que ya ha consultado sobre los compromisos voluntarios con varios países.
El compromiso se centra en gran medida en los riesgos de seguridad, pero no aborda otras preocupaciones sobre la última tecnología de IA, incluido el efecto en los empleos y la competencia en el mercado, los recursos ambientales necesarios para construir los modelos y las preocupaciones de derechos de autor sobre los escritos, el arte y otras obras humanas que se utilizan para enseñar a los sistemas de IA cómo producir contenido similar al humano.
La semana pasada, OpenAI y The Associated Press anunciaron un acuerdo para que la compañía de inteligencia artificial licencie el archivo de noticias de AP. La cantidad que pagará por ese contenido no fue revelada.
——
O’Brien informó desde Providence, Rhode Island.
Comments