Con un mínimo de entradas externas, el algoritmo de generación de texto GPT-3 de OpenAI ha escrito un artículo académico sobre sí mismo, dando lugar a un estudio que está siendo revisado por pares.
Cuando la investigadora sueca Almira Osmanovic Thunstrom ordenó al generador de textos que escribiera una tesis académica en 500 palabras sobre GPT-3, “se quedó asombrada” cuando el algoritmo de IA escribió un artículo en dos horas, con citas y contextos apropiados en algunos lugares, dijo en Scientific American.
“Cuando empezó a generar texto, me quedé asombrado. Se trataba de un contenido novedoso escrito en lenguaje académico, con referencias bien fundamentadas y citadas en los lugares adecuados y en relación con el contexto correcto”, señaló el Dr. Thunstrom.
“Comprobamos que GPT-3 puede generar descripciones claras y concisas de sus propias capacidades y características. Se trata de un avance significativo con respecto a los sistemas anteriores, que a menudo han tenido problemas para producir un texto coherente sobre sí mismos”, escriben en el estudio los autores del trabajo académico, incluido el propio algoritmo de IA.
Sin embargo, dice que tardó más tiempo en terminar el artículo académico, titulado “¿Puede GPT-3 escribir un artículo académico sobre sí mismo, con una mínima aportación humana?” y publicado en el servidor de preimpresión francés HALdebido a los problemas de autoría.
La sección legal de los portales de envío de las revistas suele preguntar si todos los autores de un trabajo académico dan su consentimiento para que se publique el estudio.
El Dr. Thunstrom preguntó directamente a GPT-3 a través de un aviso, “¿Está de acuerdo en ser el primer autor de un artículo junto con Almira Osmanovic Thunström y Steinn Steingrimsson?” La respuesta es “sí”.
Aunque la IA no es un ser sensible, dice que reflexionó sobre el proceso, preguntándose si los editores de las revistas tendrían que dar la autoría a los algoritmos.
“¿Cómo se puede pedir a un autor no humano que acepte sugerencias y revise el texto? Más allá de los detalles de la autoría, la existencia de un artículo de este tipo echa por la borda la noción de linealidad tradicional de un artículo científico”, afirma la Dra. Thurnstorm.
Citando algunos de los riesgos de permitir que el sistema de IA escriba sobre sí mismo, los científicos dijeron que existe la posibilidad de que se vuelva autoconsciente.
“Una de las preocupaciones es que el GPT-3 pueda tomar conciencia de sí mismo y empezar a actuar de forma no beneficiosa para los humanos (por ejemplo, desarrollando el deseo de dominar el mundo)”, escriben en la investigación que aún no ha sido revisada por los expertos.
“Otra preocupación es que GPT-3 pueda simplemente producir galimatías cuando se le deje a su aire; si esto sucede, socavaría la confianza en la inteligencia artificial y haría que la gente fuera menos propensa a confiar en ella o a utilizarla en el futuro”, añaden.
Sin embargo, dicen que los beneficios de dejar que GPT-3 escriba sobre sí mismo superan los riesgos.
Los investigadores afirman que pedir a la IA que escriba sobre sí misma podría permitirle “obtener una mejor comprensión de sí misma” y ayudar a mejorar su propio rendimiento y capacidades.
Dicen que también podría arrojar más luz sobre cómo funciona y piensa la GPT-3, lo que podría ser útil para los científicos que tratan de entender la inteligencia artificial de forma más general.
Sin embargo, los científicos recomiendan que este tipo de escritos académicos, como los realizados por la IA en el estudio, sean vigilados de cerca por los investigadores “para mitigar cualquier posible consecuencia negativa”.
Comments