TY - JOUR AU - Adrian Bender AU - Santiago Nicolet AU - Pablo Folino AU - Juan José Lopez AU - Gustavo Hansen PY - 2022/12/14 Y2 - 2024/03/29 TI - Generación Automática de Código Fuente a través de Modelos Preentrenados de Lenguaje, un análisis de la literatura JF - Memorias de las JAIIO JA - JAIIO VL - 8 IS - 1 SE - DO - UR - https://publicaciones.sadio.org.ar/index.php/JAIIO/article/view/250 AB - Un Transformer es un modelo de Aprendizaje Profundo creado en 2017 con el objetivo de realizar traducciones entre lenguajes naturales. Las innovaciones que introdujo, particularmente la de auto-atención, han permitido construir prototipos que tienen una noción intuitiva del contexto, y comprenden el significado y los patrones subyacentes del lenguaje. En 2020 OpenAI hizo público GPT-3, un modelo preentrenado enfocado hacia la generación de lenguaje, que mostró resultados prometedores, creando textos con una calidad tal que se hace difícil distinguir si fueron escritos por un humano o por una máquina. Podemos afirmar que el código fuente es texto generado en un lenguaje formal, y por lo tanto podría ser generado con herramientas basadas en estos prototipos. Este trabajo presenta un estudio de la evolución y el estado del arte en este campo: la generación automática de código fuente a partir de especificaciones escritas en lenguaje natural. Recorremos diferentes casos, su éxito, las dificultades de encontrar mecanismos de evaluación y su posible implementación en un futuro por las empresas  ER -