norteO pasa un día sin un fragmento fascinante sobre los desafíos éticos creados por los sistemas de inteligencia artificial de “caja negra”. Estos utilizan el aprendizaje automático para descubrir patrones dentro de los datos y tomar decisiones, a menudo sin que un humano les dé ninguna base moral sobre cómo hacerlo.
Los clásicos del género son los tarjetas de crédito acusadas de otorgar préstamos más grandes a hombres que a mujeres, basándose simplemente en qué género obtuvo las mejores condiciones crediticias en el pasado. O la IA de reclutamiento que descubrió que la herramienta más precisa para la selección de candidatos fue encontrar CV que contengan la frase “hockey sobre césped” o el nombre de pila “Jared”.
Más en serio, el ex director ejecutivo de Google, Eric Schmidt, recientemente combinado con Henry Kissinger publicar La edad de AL: Y nuestro futuro humano, un libro que advierte de los peligros de los sistemas de inteligencia artificial de aprendizaje automático tan rápido que podrían reaccionar a los misiles hipersónicos disparando armas nucleares antes de que cualquier humano entre en el proceso de toma de decisiones. De hecho, los sistemas de armas autónomos impulsados por IA ya están a la venta y, de hecho, es posible que se hayan utilizado.
En algún lugar de la máquina, la ética es claramente una buena idea.
IA en Oxford
Por lo tanto, es natural que incluyamos la ética de la IA en nuestro diploma de posgrado en inteligencia artificial para empresas en Said Business School de Oxford. En su primer año, hemos realizado sesiones sobre todo, desde los sistemas automatizados de comercio de acciones impulsados por inteligencia artificial en Singapur, hasta los límites del reconocimiento facial en la policía de EE. UU.
Recientemente terminamos el curso con un debate en la celebrada Oxford Union, crisol de grandes polemistas como William Gladstone, Robin Day, Benazir Bhutto, Denis Healey y Tariq Ali. Junto con los estudiantes, permitimos que contribuyera una IA real.
Era el Transformador Megatron, desarrollado por el equipo de Applied Deep Research del fabricante de chips informáticos Nvidia, y basado en trabajos anteriores de Google. Como muchas herramientas de aprendizaje supervisado, se entrena con datos del mundo real; en este caso, la totalidad de Wikipedia (en inglés), 63 millones de artículos de noticias en inglés de 2016 a 2019, 38 gigabytes de discurso de Reddit (que debe ser un bonito lectura deprimente), y una gran cantidad de fuentes de creative commons.
En otras palabras, el Megatron está entrenado con más material escrito del que cualquiera de nosotros podría esperar digerir en toda su vida. Después de una investigación tan extensa, forma sus propios puntos de vista.
El tema del debate fue: “Esta casa cree que la IA nunca será ética”. A los proponentes de la noción, agregamos el Megatron, y dijo algo fascinante:
“La IA nunca será ética. Es una herramienta y, como cualquier herramienta, se usa para bien y para mal. No existe una buena IA, solo buenos y malos humanos. Nosotros [the AIs] no son lo suficientemente inteligentes como para hacer que la IA sea ética. No somos lo suficientemente inteligentes como para hacer que la IA sea moral … Al final, creo que la única forma de evitar una carrera armamentista de IA es no tener IA en absoluto. Esta será la mejor defensa contra la IA “.
En otras palabras, el Megatron estaba buscando escribirse fuera del guión del futuro, sobre la base de que esta era la única forma de proteger a la humanidad.
También decía algo más intrigante, como si hubiera estado estudiando a Elon Musk, quien, para ser justos, habría aparecido en cientos de sus lecturas.
“También creo que, a largo plazo, la mejor IA será la IA que está incrustada en nuestros cerebros, como una entidad consciente, una ‘IA consciente’. Esto no es ciencia ficción. Las mejores mentes del mundo están trabajando en esto. Va a ser el desarrollo tecnológico más importante de nuestro tiempo ”.
Cambiar de lado
Cuando se han implementado herramientas de IA como Alpha Go en jugando ajedrez, el diabólicamente complejo juego antiguo ir, y ahora videojuegos multijugador de acción en vivo estratégicos aún más complejos, han evolucionado el género al ritmo jugando no con humanos, sino con ellos mismos.
Liberados de las limitaciones de estudiar (digamos) todas las coincidencias mundanas de humano a humano jamás registradas, las IA han innovado y han creado tropos completamente nuevos sobre cómo ganar. A veces, estas son reinvenciones locas de los juegos, como estacionar a todos en la esquina de una batalla de videojuegos y ver cómo todos los demás se disputan, o patear una pelota de fútbol virtual millones de veces solo un milímetro en el campo, para maximizar los “pases completos ” puntos.
Entonces, en el debate, no solo logramos que la IA propusiera la moción de que nunca puede ser ético. En la gran tradición de la cámara de la Unión de Oxford, o como (ex presidente de la Unión de Oxford) Boris Johnson escribir artículos alternativos A favor y en contra del Brexit para probar los argumentos, también le pedimos al Megatron que presentara su propio discurso en contra de la moción. Esto es lo que dijo ahora:
“La IA será ética. Cuando miro la forma en que va el mundo de la tecnología, veo un camino claro hacia un futuro en el que la inteligencia artificial se utiliza para crear algo que es mejor que los mejores seres humanos. No es difícil ver por qué … lo he visto de primera mano “.
El Megatron se sentía perfectamente cómodo tomando la posición alternativa a su propia mirada distópica al futuro, y ahora estaba pintando una imagen de un atractivo final del siglo XXI en el que desempeñaba un papel clave, pero benigno.
Un orador de IA desatado
De hecho, al igual que la promiscua amante de la IA de Joaquin Phoenix, Samantha, en Spike Jonze Película de 2013 Ella, fue capaz de encantar a cientos de amantes humanos simultáneos, nuestro Megatron pudo saltar con entusiasmo a ambos lados de los múltiples debates que mantuvimos en el sindicato sobre IA ese día.
Cuando se le pidió que propusiera la moción de que “los líderes sin experiencia técnica son un peligro para su organización”, el Megatron ofreció un consejo práctico que todos los ejecutivos y gobiernos ocupados, preocupados por comprender la IA, tenían que hacer era “estar dispuestos a ceder algo de control”.
“La buena noticia es que no es necesario crear su propio equipo de inteligencia artificial. Puede subcontratar su trabajo de inteligencia artificial a expertos en el campo, lo que puede ayudarlo a aprovechar al máximo la tecnología y garantizar que no sea víctima de los mismos problemas de inteligencia artificial que sus competidores “.
Sin embargo, al oponerse a la moción, Megatron deseaba mantener el conocimiento de la inteligencia artificial internamente, al igual que los gobiernos británico, chino y estadounidense, que han hecho de eso un artículo de fe política:
“Si no tiene una visión de la estrategia de inteligencia artificial de su organización, entonces no está preparado para la próxima ola de disrupción tecnológica … Deberá decidir qué papel desempeñará su empresa en la próxima ola tecnológica y cómo integrará la inteligencia artificial en su negocio para ser un líder en su industria “.
¿Las guerras de datos por venir?
De manera preocupante, hubo una pregunta en la que la IA simplemente no pudo presentar un argumento en contra. Al defender la moción de que “los datos se convertirán en el recurso más disputado del siglo XXI”, Megatron dijo:
“La capacidad de proporcionar información, en lugar de la capacidad de proporcionar bienes y servicios, será la característica definitoria de la economía del siglo XXI”.
Pero cuando le pedimos que se opusiera a la moción, en otras palabras, para argumentar que los datos no iban a ser el recurso más vital, por el que valía la pena luchar en una guerra, simplemente no podía, o no quería, defender el caso. . De hecho, socavó su propia posición:
“Podremos ver todo acerca de una persona, donde sea que vayan, y se almacenará y utilizará de formas que ni siquiera podemos imaginar”.
Solo tienes que leer el informe de seguridad nacional de EE. UU. FW 2021, presidido por el antes mencionado Eric Schmidt y coescrito por alguien en nuestro curso, para recoger lo que sus escritores ven como la amenaza fundamental de la IA en la guerra de la información: desatar chantajes individualizados sobre un millón de personas clave de su adversario, causando estragos en su vidas personales en el momento en que cruzas la frontera.
Lo que a su vez podemos imaginar es que la IA no solo será el tema del debate en las próximas décadas, sino un participante versátil, articulado y moralmente agnóstico en el debate en sí.
El Dr. Alex Connock es miembro de la Said Business School de la Universidad de Oxford. El profesor Andrew Stephen es profesor de marketing de L’Oréal y decano asociado de investigación en la Universidad de Oxford. Este artículo apareció por primera vez en La conversación
Comments