Apoio de Modelos de Linguagem de Grande Escala a Modelos Compactos na Tradução de Linguagem Natural para a Linguagem Formal Nile com Raciocínio Estrutural Explícito e Representação Intermediária Canônica
Modelo Aluno; Modelo Professor; Modelos de Linguagem de Grande Escala; Nile; Redes Baseadas em Intenções; Tradução; Representação Intermediária; Traços de Raciocínio
A tradução de intenções expressas em linguagem natural para linguagens formais específicas de domínio constitui um dos principais gargalos em sistemas de Intent-Based Networking (IBN). Embora modelos de linguagem de larga escala apresentem capacidade promissora para interpretar intenções humanas, sua aplicação direta à geração de linguagens formais rígidas, como Domain-Specific Languages (DSLs), permanece limitada por erros estruturais, invalidez sintática e alto custo computacional. Este trabalho investiga um método controlado para a tradução de intenções em linguagem natural para a linguagem formal Nile, tratando o problema como uma tarefa de semantic parsing e geração de código. A metodologia proposta baseia-se em duas camadas complementares: (i) o uso de uma representação intermediária canônica em JSON, alinhada à gramática da linguagem Nile, e (ii) a incorporação de traços explícitos de raciocínio estrutural e composicional, extraídos de um modelo professor e utilizados como contexto externo durante a inferência de um modelo aluno compacto. Os experimentos são conduzidos sobre o conjunto GOLD-56, com múltiplos splits controlados e diferentes regimes de inferência, incluindo cenários sem estrutura intermediária, com JSON canônico e com JSON associado a traços explícitos. A avaliação é realizada por métricas estruturais e semânticas adequadas a linguagens formais, incluindo taxa de aceitação por parser, Exact Match canônico, Tree Edit Distance e acurácia em nível de slots.