Generación Automática de Código Fuente a través de Modelos Preentrenados de Lenguaje

  • Adrián Bender Facultad de Ingeniería, Universidad del Salvador
  • Santiago Nicolet Facultad de Ingeniería, Universidad del Salvador
  • Pablo Folino Facultad de Ingeniería, Universidad del Salvador
  • Juan José Lopez Facultad de Ingeniería, Universidad del Salvador
  • Gustavo Hansen Facultad de Ingeniería, Universidad del Salvador
Palabras clave: Generación de Código, Modelos Preentrenados, Automatización

Resumen

Un Transformer es un modelo de Aprendizaje Profundo creado en 2017 con el objetivo de realizar traducciones entre lenguajes naturales. Las innovaciones que introdujo, particularmente la de auto-atención, han permitido construir prototipos que tienen una noción intuitiva del contexto, y comprenden el significado y los patrones subyacentes del lenguaje. En 2020 OpenAI hizo público GPT-3, un modelo preentrenado enfocado hacia la generación de lenguaje,
que mostró resultados prometedores, creando textos con una calidad tal que se hace difícil distinguir si fueron escritos por un humano o por una máquina. Podemos afirmar que el código fuente es texto generado en un lenguaje formal, y por lo tanto podría ser generado con herramientas basadas en estos prototipos. Este trabajo presenta un estudio de la evolución y el estado del arte en este campo: la generación automática de código fuente a partir de especificaciones escritas en lenguaje natural. Recorremos diferentes casos, su éxito, las dificultades de encontrar mecanismos de evaluación y su posible implementación en un futuro por las empresas.

Publicado
2023-05-03
Cómo citar
Bender, A., Nicolet, S., Folino, P., Lopez, J. J., & Hansen, G. (2023). Generación Automática de Código Fuente a través de Modelos Preentrenados de Lenguaje. Electronic Journal of SADIO (EJS), 22(1), 19-36. Recuperado a partir de https://publicaciones.sadio.org.ar/index.php/EJS/article/view/465