|
Dissertações |
|
|
1
|
-
JOÃO GABRIEL ROSSI DE BORBA
-
Do Abstrato ao Concreto: Uma Ferramenta para Implementação de Requisitos Éticos em Inteligência Artificial através de Histórias de Usuário
-
Orientador : EDNA DIAS CANEDO
-
MEMBROS DA BANCA :
-
EDNA DIAS CANEDO
-
GERALDO PEREIRA ROCHA FILHO
-
LI WEIGANG
-
SHEILA DOS SANTOS REINEHR
-
Data: 28/01/2025
-
-
Mostrar Resumo
-
\textbf{Contexto:} Nos últimos anos, o campo da inteligência artificial passou por um processo de expansão notável, tanto na academia como na indústria. Este crescimento pode ser observado de várias formas, incluindo o desenvolvimento de tecnologias mais complexas, o aumento do investimento, uma maior atenção dos meios de comunicação social e a expansão das suas áreas de aplicação. No entanto, este avanço deu origem a questões éticas que estão sendo uma questão de crescente preocupação social, como o enviesamento de sistemas, aplicações danosas, entre outros. \textbf{Objetivo:} Este trabalho tem como objetivo apresentar uma visão geral do estado atual das soluções práticas para o desenvolvimento ético de sistemas baseados em IA em todas as fases do ciclo de vida de um sistema de software. Pretendeu-se também desenvolver uma ferramenta que operacionalize a tradução de requisitos éticos de alto nível em histórias de usuário éticas. \textbf{Método:} Para atingir este objetivo, este estudo baseou-se na metodologia \textit{Design Science Research}, que produziu três resultados até ao momento. Inicialmente, na fase de consciência do problema, foi atualizada a revisão sistemática da literatura desenvolvida por Cerqueira. Posteriormente, na fase de sugestão, a ferramenta proposta foi formulada como um sistema que traduz requisitos éticos em histórias de usuário éticas. Finalmente, na fase de desenvolvimento, foi implementada a primeira versão da ferramenta. \textbf{Resultados:} No total foram identificados 38 estudos primários. Dentre estes estudos, a maior parte (63\%) propõe uma solução prática para facilitar a aplicação de ética em IA, mas ainda existe uma lacuna entre teoria e prática no que se diz sobre ética em IA. Além disso, foi também compilada uma lista com 26 dos principais princípios éticos que foram discutidos na literatura. Foi também proposta e desenvolvida a ferramenta \textit{Requirements to US}, que utiliza histórias de usuário, princípios éticos em IA e modelos de LLMs para promover a integração da ética em IA durante a fase de Engenharia de Requisitos. \textbf{Conclusão:} Os resultados do processo de treinamento do modelo indicam que sua utilização é viável para possibilitar a prática de ética em IA durante os estágios iniciais do ciclo de vida do software. Consequentemente, os resultados preliminares indicam que a ferramenta facilita a integração da teoria e prática, preenchendo assim uma lacuna existente no atual conjunto de aplicações práticas.
-
Mostrar Abstract
-
\textbf{Context:} In recent years, the field of artificial intelligence has undergone a remarkable process of expansion, both at the academic and industrial levels. This growth can be observed in various ways, including the development of more complex technologies, increased investment, greater media attention and the expansion of its areas of application. However, this advancement has also given rise to a number of ethical issues that are becoming a matter of growing social concern, including system bias and the potential for harmful applications. \textbf{Objective:} This work aims to develop a tool that operationalises the translation of high-level ethical requirements into ethical user stories. \textbf{Methods:} In order to achieve this objective, this study was based on the Design Science Research methodology, which has yielded four results. Initially, in the problem awareness phase, a systematic literature review was updated. Subsequently, in the suggestion phase, the proposed tool was formulated as a system that transforms ethical requirements into ethical user stories. Following the second phase, the development stage, the first version of the tool was implemented. Finally, the tool was subjected to evaluation in order to generate empirically based evidence of whether it is fit for purpose. \textbf{Results:} A total of 38 primary studies were identified. The majority of these studies (63\%) put forward a practical solution to facilitate the application of ethics in AI. Nevertheless, a discrepancy persists between theoretical and practical applications of ethics in AI. Additionally, a list of 26 frequently discussed ethical principles in the literature was compiled. Subsequently, the Requirements to US tool was proposed, developed, and validated. This tool employs ethical user stories, AI ethics principles, and Large Language Models to facilitate the integration of AI ethics during the requirements engineering phase. The validation process yielded positive outcomes, confirming the effectiveness of the tool. \textbf{Conclusion:} The outcomes of the model's training process demonstrate its potential as a valuable tool for the early integration of AI ethics into software development. The results indicate that the tool supports the integration of theoretical and practical aspects, offering a promising solution to an existing gap in the current range of practical applications.
|
|
|
2
|
-
ELIZANGELA DE FREITAS XIMENES
-
ERC4AI: Uma Ferramenta para Classificação de Requisitos Éticos em IA.
-
Orientador : EDNA DIAS CANEDO
-
MEMBROS DA BANCA :
-
CARLA TACIANA LIMA LOURENÇO SILVA
-
EDNA DIAS CANEDO
-
GERALDO PEREIRA ROCHA FILHO
-
LI WEIGANG
-
Data: 10/02/2025
-
-
Mostrar Resumo
-
A Inteligência Artificial (IA) tem ganhado destaque significativo tanto na comunidade científica quanto na indústria, possibilitando que máquinas realizem tarefas anteriormente exclusivas aos humanos. Como consequência, impulsionou avanços em várias áreas, como a medicina, a educação e as finanças, graças à implementação de tecnologias como BERT, ChatGPT, GANs, entre outras. Contudo, as implicações éticas e de segurança relacionadas à utilização da IA têm se tornado uma preocupação crescente, incidindo sobre questões de viés, uso indevido e o impacto social que pode causar. Objetivo: Este trabalho teve como objetivo desenvolver o Ethical Requirements Classifier for AI (ERC4AI), um classificador automatizado que empregou técnicas de Aprendizado de Máquina para identificar requisitos éticos em projetos de IA e validar a conformidade destes com RE4AI Ethical Guide, destinado a auxiliar os Product Owners e desenvolvedores de aplicações baseadas em IA na coleta de requisitos éticos. Método: Neste estudo, foram adotadas algumas fases propostas pelo Cross Industry Standard Process for Data Mining (CRISP-DM) na realização da mineração de dados. A Fase 1 foi dedicada à análise do RE4AI Ethical Guide, para avaliar a possibilidade de integrá-lo no desenvolvimento de soluções baseadas em IA, utilizando-o no levantamento de requisitos éticos. Na Fase 2 foi realizada a obtenção dos dados em repositórios públicos, com o propósito de construir um conjunto representativo de requisitos éticos para desenvolvimento do ERC4AI. A Fase 3 se propôs à análise manual e a rotulação dos dados para classificação de textos com padrão de requisitos éticos em IA, seguida pela Fase 4, em que foram os aplicadas técnicas de pré-processamento de dados para a limpeza e padronização dos mesmos, preparando-os assim para o treinamento do modelo. A Fase 5 envolveu o desenvolvimento de um classificador textual, explorando algoritmos como BERT, RoBERTa, DistilBERT e XLM. Após a implementação e a avaliação comparativa dos modelos, o algoritmo com melhor desempenho foi selecionado e denominado ERC4AI. Resultados: Dentre os modelos avaliados, BERT demonstrou superioridade em termos de desempenho, alcançando uma taxa de certo superior a 80% nas métricas de Precisão, Recall, F1-Score e Macro AVG. Além isso, observou-se uma correspondência significativa entre as perguntas do RE4AI Ethical uide e os requisitos éticos em IA considerados neste estudo, especialmente os princípios éticos de Transparência e Responsabilidade, que se destacaram com o maior número de uestões associadas. Conclusão: Os resultados obtidos indicam uma precisão notável a classificação de requisitos éticos em IA. Adicionalmente, é ressaltada a viabilidade do E4AI Ethical Guide como uma ferramenta para a incorporação de considerações éticas o desenvolvimento de sistemas de IA. Este estudo abre caminho para futuras investigações focadas na otimização de modelos de classificação de requisitos éticos em IA.
-
Mostrar Abstract
-
Artificial Intelligence (AI) has gained significant prominence in both the scientific community and the industry, enabling machines to perform tasks previously exclusive to humans. As a consequence, it has driven advancements in various areas, such as medicine, education, and finance, thanks to the implementation of technologies like ERT, ChatGPT, and GANs, among others. However, the ethical and security implications related to the use of AI have become a growing concern, focusing on issues of bias, misuse, and the social impact it can cause. Objective: This work aimed to develop the Ethical Requirements Classifier for AI (ERC4AI), an automated classifier that employed Machine Learning techniques to identify ethical requirements in AI projects and validate their compliance with the RE4AI Ethical Guide, intended to assist Product Owners and developers of applications based on AI in the collection of ethical requirements. Method: In this study, some phases proposed by the Cross Industry Standard Process for Data Mining (CRISP-DM) were adopted for data mining. Phase 1 was dedicated to the analysis of the RE4AI Ethical Guide, to assess the possibility of integrating it in the development of AI-based solutions, using it in the gathering of ethical requirements. Phase 2 involved obtaining data from public repositories, with the purpose of constructing a representative set of ethical requirements for the development of ERC4AI. Phase 3 proposed the manual analysis and labeling of data for the classification of texts with a pattern of ethical requirements in AI, followed by Phase 4, in which data pre-processing techniques were applied for cleaning and standardization, thus preparing them for model training. Phase 5 involved the development of a textual classifier, exploring algorithms like BERT, RoBERTa, DistilBERT, and XLM. After the implementation and comparative evaluation of the models, the algorithm with the best performance was selected and named ERC4AI. Results: Among the evaluated models, BERT showed superiority in terms of performance, achieving an accuracy rate of over 80% in the metrics of Precision, Recall, F1-Score, and Macro AVG. Furthermore, a significant correspondence was observed between the questions of the RE4AI Ethical Guide and the ethical requirements in AI considered in this study, especially the ethical principles of Transparency and Responsibility, which stood out with the highest number of associated questions. Conclusion: The results obtained indicate a remarkable precision in the classification of ethical requirements in AI. Additionally, the feasibility of the RE4AI Ethical Guide as a tool for incorporating ethical considerations in the development of AI systems is highlighted. This study paves the way for future investigations focused on optimizing models for the classification of ethical requirements in AI.
|
|
|
3
|
-
VITOR VASCONCELOS DE OLIVEIRA
-
Estudo sobre Redes Neurais de Grafos Bipartidos com Palavra-Chave e Atenção para Classificação Transdutiva de Texto
-
Orientador : THIAGO DE PAULO FALEIROS
-
MEMBROS DA BANCA :
-
ANTONIO FERNANDO LAVAREDA JACOB JÚNIOR
-
DIBIO LEANDRO BORGES
-
FLAVIO DE BARROS VIDAL
-
THIAGO DE PAULO FALEIROS
-
Data: 20/02/2025
-
-
Mostrar Resumo
-
Na atualidade, o Processamento de Linguagem Natural (NLP) evoluiu rapidamente em uma ampla gama de tarefas, especialmente graças aos avanços do Aprendizado de Máquina (ML) e do Aprendizado Profundo (DL) ao longo dos anos. No entanto, devido à alta complexidade e aos diversos pré-requisitos dessas tecnologias, as metodologias convencionais de classificação de texto de NLP geralmente exigem uma grande quantidade documentos rotulados e alto poder computacional. Este trabalho investiga três técnicas para abordar e solucionar esses desafios. Primeiramente e mais significativamente, está o uso de abordagens baseadas em grafos transdutivos para a tarefa de classificação de texto, visando reduzir a quantidade necessária de dados rotulados. Para este processo inicial, emprega-se o já renomado modelo de Graph Convolutional Networks (GCN) e o modelo mais contemporâneo de Graph Attention Networks (GAT), ambos utilizando uma nova estrutura de grafos bipartidos de documento-conceito que usam Keyphrases (conceitos) para aquisição de conhecimento de tópicos e enriquecimento de informações dos modelos. A segunda técnica utilizada, constitui na aplicação de coarsening para promover a redução dos grafos, reduzindo assim os custos computacionais. Por fim, emprega-se Large Language Models (LLM) como rotuladores de baixo custo, removendo ou reduzindo a necessidade de rotuladores humanos. Os resultados mostram que o modelo GAT teve o melhor desempenho para tarefas de classificação de texto transdutivo usando a abordagem de grafos bipartidos de documento-conceito, sendo este um desempenho comparável aos de modelos indutivos tradicionais mesmo usando apenas de 1 a 30 documentos rotulados por classe. Referente a aplicação de coarsening, ocorreu uma redução de 40%-50% no tamanho dos grafos preservando em média 82% do desempenho dos modelos, variando de 68% a 95% em vários conjuntos de dados. LLMs foram capazes de treinar vários modelos eficientes, mas quando comparados a modelos treinados usando dados rotulados por humanos apresentaram resultados inferiores, demonstrando que o aprendizado transdutivo favorece pequenas quantidades de dados muito precisos em alternativa de uma quantidade abundante de dados moderadamente precisos.
-
Mostrar Abstract
-
In contemporary times, Natural Language Processing (NLP) has swiftly evolved in a wide range of tasks, especially thanks to Machine Learning (ML), and Deep Learning (DL) great advancements over the years. However, due to these technologies' complexity and data prerequisites, current conventional NLP text classification methodologies often require large numbers of labeled documents and large computational power. This paper mainly investigates three techniques to address such challenges. First is the use of Transductive Graph-based approaches for the text classification task, aiming to reduce the labeled data required amount, for this, we employ both the previously well-established Graph Convolutional Networks (GCN) and the more contemporary Graph Attention Networks (GAT) on a novel document-context bipartite framework. The second is applying Coarsening for graph reduction and thus reducing computational costs. Lastly, we aim to employ Large Language Models (LLM) as low-cost labelers effectively removing the need for human labelers. Preliminary results show GAT as the best performing model for transductive text classification tasks, as well as presenting coarsening with minor performance reductions even with 40%-50% graph size reduction.
|
|
|
4
|
-
JOÃO PAULO COSTA E SOUZA
-
Using AI for Forecasting and Trading in Markets: a Study of Deep Learning and Deep Reinforcement Learning in Finance
-
Orientador : GERALDO PEREIRA ROCHA FILHO
-
MEMBROS DA BANCA :
-
GERALDO PEREIRA ROCHA FILHO
-
EDNA DIAS CANEDO
-
MARCELO ANTONIO MAROTTA
-
FRANCISCO AIRTON PEREIRA DA SILVA
-
Data: 28/02/2025
-
-
Mostrar Resumo
-
No contexto de negociação financeira, a identificação de tendências e estratégias de tomada de decisão são componentes cruciais para atingir lucratividade consistente e minimizar riscos. Dada a importância desses dois desafios, este projeto propõe uma solução que combina várias técnicas avançadas para aprimorar a precisão preditiva e o desempenho de negociação. A abordagem proposta incorpora Autoencoders para engenharia de recursos, permitindo redução efetiva de dimensionalidade e a extração de padrões significativos de indicadores técnicos. Para identificação de tendências, o modelo alavanca uma combinação de Redes Neurais Convolucionais (CNNs) e Redes de Memória Longa e Curta Prazo Bidirecionais (BiLSTMs), juntamente com rotulagem baseada em regressão linear para definir tendências de mercado com maior precisão. Na fase de tomada de decisão, o sistema emprega o algoritmo Rainbow DQN, aprimorado com um buffer de memória, para otimizar estratégias de negociação e maximizar a lucratividade no mercado de criptomoedas. Para avaliar rigorosamente a eficácia da estrutura proposta, o desempenho de identificação de tendências é avaliado usando precisão, exatidão e recall, enquanto o desempenho de negociação é medido por meio de retorno, sua média e desvio padrão. Os resultados experimentais demonstram que o modelo supera uma linha de base aleatória na previsão de tendências, validando a eficácia dos componentes de engenharia de recursos e aprendizado profundo. Além disso, apesar de experimentar flutuações significativas nos retornos de negociação, o agente obteve um lucro médio positivo, destacando o potencial da abordagem proposta no desenvolvimento de uma estratégia de negociação adaptável e orientada por dados.
-
Mostrar Abstract
-
In the context of market negotiations, the Stop-Loss stands out as a key tool among risk management strategies, preventing moderate losses from turning into true disasters. Given its importance, there is an interest in knowing where to place it, when and how it should follow the price curve, and how it will act in conjunction with the buying and selling strategy. It is in this sense that the present work develops, proposing that the automatic placement of the Stop-Loss be carried out by an agent trained through reinforcement learning, and that this training occurs concurrently with the training of the agent responsible for buy and sell signals. To feed both agents, a price prediction system is proposed, aiming to estimate some values of future candles to feed them. The internal structure of the predictor system comprises artificial neural networks with convolutional and biLSTM layers.
|
|
|
5
|
-
FILIPE MAIA SOARES
-
Comparação Paralela de Sequências Biológicas em Múltiplas GPUs com Mecanismo de Tolerância a Falhas
-
Orientador : ALBA CRISTINA MAGALHAES ALVES DE MELO
-
MEMBROS DA BANCA :
-
ALBA CRISTINA MAGALHAES ALVES DE MELO
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
PHILIPPE OLIVIER ALEXANDRE NAVAUX
-
RICARDO PEZZUOL JACOBI
-
Data: 13/03/2025
-
-
Mostrar Resumo
-
A comparação de sequências biológicas é uma das principais operações na área de Bioinformática. Os algoritmos exatos utilizados para compará-las aliado ao tamanho das sequências pode acarretar em horas ou até mesmo dias de execução. Neste contexto, é fundamental que tais aplicações estejam amparadas com mecanismos de tolerância a falhas, uma vez que a ocorrência de uma falha pode demandar a reexecução completa da aplicação, gerando prejuízos em termos de tempo e de custo. O MASA-CUDAlign é uma ferramenta de comparação de sequências exata, que implementa tolerância a falhas em apenas uma GPU. O objetivo da presente Dissertação de Mestrado consiste em propor, implementar e avaliar um mecanismo de tolerância a falhas para o MASA-CUDAlign, utilizando múltiplas GPUs. O mecanismo de tolerância a falhas baseia-se numa funcionalidade da ferramenta, que é o armazenamento de algumas colunas em disco, reaproveitando-as como checkpoints síncronos. A avaliação deste mecanismo leva em consideração seu overhead frente à versão original, a análise de falha em diferentes circunstâncias e experimentos utilizando uma quantidade superior de GPUs (oito), com múltiplas falhas simultâneas.
-
Mostrar Abstract
-
Biological sequence comparison is one of the main operations in Bioinformatics. The exact algorithms used to compare sequences, combined with the large size of the sequences, can result in hours or even days of execution. In this context, it is essential to implement fault tolerance techniques in such applications, since the occurrence of a failure may lead to the complete re-execution of the application, causing losses in terms of time and cost. MASA-CUDAlign is an exact sequence comparison tool that implements fault tolerance on just one GPU. The main goal of this Master's Thesis is to propose, implement, and evaluate a fault tolerance mechanism for MASA-CUDAlign, using multiple GPUs. The fault tolerance mechanism is based on a feature of the tool, which consists in storing some columns on disk, and reusing them as synchronous checkpoints. The evaluation of this mechanism takes into consideration its overhead compared to the original version, failure analysis in different circumstances and experiments using a greater amount of GPUs (eight), with multiple simultaneous failures.
|
|
|
6
|
-
TAYNÁ LARISSA FISCHER VIEIRA
-
A Framework of Memoization and Variational Lift using Interpreters
-
Orientador : VANDER RAMOS ALVES
-
MEMBROS DA BANCA :
-
VANDER RAMOS ALVES
-
PEDRO GARCIA FREITAS
-
RODRIGO BONIFACIO DE ALMEIDA
-
PAULO HENRIQUE MONTEIRO BORBA
-
Data: 26/03/2025
-
-
Mostrar Resumo
-
Linhas de Produtos de Software (SPLs) possibilitam o desenvolvimento sistemático de sistemas configuráveis ao organizar produtos como famílias que compartilham funcionalidades comuns e diferem em recursos selecionados. No entanto, a análise estática em SPLs enfrenta desafios de escalabilidade devido à variabilidade no espaço (entre configurações) e no tempo (entre revisões de software). Esta dissertação propõe um framework baseado em interpretadores que combina lifting variacional e memoização para suportar análises estáticas escaláveis e reutilizáveis em SPLs em evolução. As análises são implementadas como programas PCF+ e executadas sobre representações variacionais dos programas, anotadas com condições de presença. A memoização permite reutilizar resultados computados anteriormente entre diferentes versões do programa, reduzindo cálculos redundantes e contribuindo para a melhoria do desempenho. O framework foi avaliado com programas que simulam cenários realistas de evolução de software. Os resultados demonstram que o uso combinado de lifting variacional e memoização reduz efetivamente o tempo de execução, evidenciando as vantagens de abordar ambas as dimensões da variabilidade. Este trabalho contribui com uma infraestrutura reutilizável para análises baseadas em fluxo de controle em SPLs, além de fornecer evidências empíricas da sua eficiência.
-
Mostrar Abstract
-
Software Product Lines (SPLs) enable the systematic development of configurable software systems by organizing products as families that share commonalities and differ in selected features. However, static analysis in SPLs poses scalability challenges due to variability in space (across configurations) and variability in time (across software revisions). This dissertation presents an interpreter-based framework that combines variational lifting and memoization to support scalable and reusable static analysis of evolving SPLs. Analyses are implemented as PCF+ programs and executed over variational representations of programs, annotated with presence conditions. Memoization mechanisms allow the reuse of previously computed results across program evolutions, reducing redundant computations and contributing to performance improvements. The framework is evaluated using benchmarks simulating realistic software evolution scenarios. Results show that the combined use of variational lifting and memoization effectively reduces execution time, demonstrating the advantages of addressing both dimensions of variability. This work contributes a reusable infrastructure for control-flow-based analyses in SPLs and provides empirical evidence supporting its efficiency.
|
|
|
7
|
-
DANIEL SILVA ALMENDRA
-
Análise de Soluções de Privacidade em Blockchain
-
Orientador : EDUARDO ADILIO PELINSON ALCHIERI
-
MEMBROS DA BANCA :
-
EDUARDO ADILIO PELINSON ALCHIERI
-
LUIS PAULO FAINA GARCIA
-
RODRIGO BONIFACIO DE ALMEIDA
-
FERNANDO LUIS DOTTI
-
Data: 27/03/2025
-
-
Mostrar Resumo
-
A maioria das plataformas de blockchain armazena as transações publicamente no ledger. Embora essa abordagem garanta a corretude e a auditabilidade das operações, ela impõe um obstáculo significativo para o desenvolvimento de aplicações que preservem a privacidade dos usuários. Diversas abordagens têm sido propostas para mitigar esse problema, empregando técnicas variadas e oferecendo diferentes níveis de privacidade. No entanto, o campo de pesquisa nessa área demonstra carência de análises abrangentes e comparativas das soluções de privacidade disponíveis.
Esta dissertação apresenta uma análise conceitual de soluções de privacidade para plataformas de blockchain, comparando suas arquiteturas, funcionalidades e limitações. Além disso, é realizada uma avaliação empírica de duas dessas soluções – Anonymous Zether e Zeestar. Nessa análise, é implementado um caso de uso no qual essas soluções são utilizadas para aprimorar a privacidade da aplicação Miles2Coins, uma plataforma de compra e venda de tokens de milhas aéreas desenvolvida para este estudo. Assim, é possível investigar os impactos sobre o desempenho, os custos transacionais e a complexidade adicional envolvida na implementação de mecanismos de privacidade em aplicações descentralizadas. Os resultados evidenciam os desafios enfrentados pelas abordagens atuais para oferecer uma solução definitiva para a privacidade em blockchain sem compromissos.
Por fim, este trabalho discute o panorama atual da privacidade em blockchain, avaliando os avanços recentes e as dificuldades associadas à adoção de plataformas de blockchain com mecanismos de privacidade integrados. O principal obstáculo reside em atender a requisitos rigorosos de privacidade sem comprometer significativamente o desempenho, os custos e a usabilidade das aplicações descentralizadas.
-
Mostrar Abstract
-
Most blockchain platforms store transactions publicly on the ledger. While this approach ensures the correctness and auditability of operations, it poses a significant obstacle to the development of privacy-preserving applications. Various approaches have been proposed to mitigate this issue, employing different techniques and offering varying levels of privacy. However, the research field in this area lacks comprehensive and comparative analyses of existing privacy solutions.
This dissertation presents a conceptual analysis of 20 privacy solutions for blockchain platforms, comparing their architectures, features, and limitations. Additionally, an empirical evaluation of two of these solutions – Anonymous Zether and Zeestar – is conducted. In this analysis, a use case is implemented in which these solutions are utilized to enhance privacy in Miles2Coins, an airline miles token trading platform developed for this study. This evaluation allows an investigation into the impact of privacy solutions on performance, transaction costs, and the additional complexity involved in their integration into decentralized applications. The results highlight the challenges faced by current approaches in providing a definitive privacy solution for blockchain without trade-offs.
Finally, this work discusses the current landscape of privacy in blockchain, assessing recent advances and the difficulties associated with the adoption of blockchain platforms with integrated privacy mechanisms. The main obstacle lies in meeting stringent privacy requirements without significantly compromising the performance, cost, and usability of decentralized applications.
|
|
|
8
|
-
EDUARDO LEMOS ROCHA
-
FFACT: A Fix-based Domain-Specific Language based on a Functional Algebra for Continuous Time Modeling
-
Orientador : EDUARDO PEIXOTO FERNANDES DA SILVA
-
MEMBROS DA BANCA :
-
DÊNIS SILVA LOUBACH
-
EDUARDO PEIXOTO FERNANDES DA SILVA
-
PEDRO GARCIA FREITAS
-
RODRIGO BONIFACIO DE ALMEIDA
-
Data: 28/04/2025
-
-
Mostrar Resumo
-
Fenômenos físicos são difíceis de modelar propriamente devido a sua natureza contínua. O paralelismo e nuances envolvidos eram um desafio antes do transistor, e mesmo depois do computador digital esse problema continua insolúvel. No passado, algum formalismo foi trazido pelo computador analógico de propósito geral (GPAC) por Shannon nos anos 1940. Infelizmente, essa base formal foi perdida com o tempo, e práticas ad-hoc tornaram-se comuns para simular o tempo contínuo. Neste trabalho, propomos uma linguagem de domínio específico (DSL) – FACT e sua evolução FFACT – escrita em Haskell que assemelha-se aos conceitos do GPAC. O principal objetivo é aproveitar de abstrações de mais alto nível, tanto da área da programação quanto da matemática, para executar sistemas de equações diferenciais, que descrevem sistemas físicos matematicamente. Nós avaliamos a performance and problemas de domínio e os endereçamos propriamente. Melhorias futuras para a DSL também são exploradas e datalhadas.
-
Mostrar Abstract
-
Physical phenomena is difficult to properly model due to its continuous nature. Its paralellism and nuances were a challenge before the transistor, and even after the digital computer still is an unsolved issue. In the past, some formalism were brought with the General Purpose Analog Computer proposed by Shannon in the 1940s. Unfortunately, this formal foundation was lost in time, with ad-hoc practices becoming mainstream to simulate continuous time. In this work, we propose a domain-specific language (DSL) – FACT and its evolution FFACT – written in Haskell that resembles GPAC’s concepts. The main goal is to take advantage of high level abtractions, both from the areas of programming and mathematics, to execute systems of differential equations, which describe physical problems mathematically. We evaluate performance and domain problems and address them accordingly. Future improvements for the DSL are also explored and detailed.
|
|
|
9
|
-
JOÃO PEDRO FELIX DE ALMEIDA
-
Holistic and Local Representation Learning for Online Signature Verification
-
Orientador : PEDRO GARCIA FREITAS
-
MEMBROS DA BANCA :
-
PEDRO GARCIA FREITAS
-
FLAVIO DE BARROS VIDAL
-
HUGO TADASHI MUNIZ KUSSABA
-
BYRON LEITE DANTAS BEZERRA
-
Data: 21/07/2025
-
-
Mostrar Resumo
-
Neste trabalho, abordamos o problema de minimizar a taxa de Equal Error Rate (EER) global em um sistema de verificação de assinaturas online independente de escritor, decompondo-a em duas componentes: a taxa de erro de separação e a taxa de erro de alinhamento. A taxa de separação surge da falta de uma separação correta entre assina- turas genuínas e falsificadas, enquanto a de alinhamento resulta da incapacidade de um único limiar global capturar de forma eficaz as separações específicas de cada escritor. Enquanto as abordagens tradicionais da literatura focam exclusivamente em aumentar a separação entre assinaturas genuínas e falsificadas, essa decomposição nos permite endereçar o problema também do ponto de vista da falta de alinhamento entre os limiares específicos de cada usuário.
Para isso, propomos HoLoSig, um novo arcabouço que integra duas populares rep- resentações profundas de assinaturas através de uma arquitetura convolucional 1D compartilhada que se bifurca em dois ramos especializados. Em um dos ramos, utilizamos a Triplet Loss com Soft-DTW para aprender representações locais de comprimento var- iável, cujas pontuações de dissimilaridade são deslocadas para uma região comum com a ajuda da Discrepância Média Máxima, a fim de melhorar o desempenho do sistema ao usar um limiar global. No outro ramo, empregamos como função de perda a expansão polinomial da entropia cruzada com correção no primeiro polinômio para aprender rep- resentações holísticas de comprimento fixo, que são usadas para reforçar ainda mais a separação criada pelo ramo de representações locais.
Para avaliar o método proposto nós conduzimos diversos experimentos de ablação que confirmam a redução tanto no erro de separação quanto de alinhamento e concluímos que a Triplet-MMD desempenha papel fundamental na redução do último. Em seguida, estendemos a análise ao substituir a MMD por outras medidas de divergência estatística e comprovamos que elas alcançam resultados comparáveis—demonstrando que o erro de alinhamento pode ser reduzido ao garantir que as pontuações de dissimilaridade do sistema sigam uma distribuição consistente.
Como um arcabouço independente de escritor, HoLoSig não possui dependência de usuários e é portanto capaz de verificar assinaturas de escritores não vistos durante o treinamento sem a necessidade de qualquer adaptação ou ajuste-fino. No entanto, HoLoSig não está livre de vieses relacionados aos dispositivos de captura e protocolo de aquisição de assinaturas. Portanto, para avaliar a robustez do modelo a essas particularidades nós realizamos diversos experimentos onde o treinamento é realizado com dados oriundos de protocolos de aquisição e dispositivos de captura diferentes dos utilizados para medir o erro do sistema. Nossos resultados são promissores, pois eles não apenas mostram forte capacidade de generalização mas também que HoLoSig consegue superar métodos que figuram no estado da arte mesmo se treinada com apenas metade dos dados utilizados por eles.
HoLoSig foi idealizada para verificação de assinaturas online realizadas com canetas (stylus). No entanto, nós estendemos sua arquitetura para endereçar o problema de verifi- cação de assinaturas online realizadas com dedo. Um dos maiores desafios na verificação de assinaturas feitas com dedo é o tamanho limitado dos conjuntos de dados disponíveis para pesquisa comparado com aqueles onde as assinaturas foram feitas com caneta, o que fre- quentemente inviabiliza o treinamento do zero. Para endereçar isso, nós adicionamos um ramo classificador de domínio na arquitetura de HoLoSig, transformando-a efetivamente em uma Rede Neural de Adaptação de Domínio. A arquitetura HoLoDANN resultante nos permite tirar proveito tanto das assinaturas feitas com caneta quanto das assinaturas feitas com dedo para melhor abordar o problema de assinaturas feitas com dedo.
HoLoSig e HoLoDANN alcançam resultados de ponta no DeepSignDB, o maior con- junto de verificação de assinaturas online atualmente. Os resultados (EER) de HoLoSig no cenário de assinaturas feitas com caneta contra falsificações habilidosas e aleatórias são: 1,73% (4vs1 habilidosas), 3,29% (1vs1 habilidosas), 0,43% (4vs1 aleatórias) e 0,89% (1vs1 aleatórias). Os resultados (EER) de HoLoDANN no cenário de assinaturas feitas com dedo contra falsificações habilidosas e aleatórias são: 5,65% (4vs1 habilidosas), 9.99% (1vs1 habilidosas), 0,55% (4vs1 aleatórias) e 1,78% (1vs1 aleatórias).
-
Mostrar Abstract
-
In this work, we address the problem of minimizing the Equal Error Rate (EER) in a Writer-Independent (WI) Online Signature Verification (OSV) system by decomposing it into two components: the separation error and the alignment error. The separation error arises from the lack of proper distinction between genuine and forged signatures, while the alignment error arise from the inability of a single global threshold to effectively capture the writer-specific separations. While traditional approaches in the literature focus solely on increasing the separation between genuine and forged signatures, this decomposition also enables us to tackle the problem from the perspective of writer-specific threshold misalignment.
To this end, we propose HoLoSig, a novel framework that integrates two popular deep signature representations via a shared 1D convolutional backbone, which bifurcates into two specialized branches. On one branch, we employ Triplet Loss with Soft-DTW to learn variable-length local representations, whose dissimilarity scores are shifted to a common region with the help of Maximum Mean Discrepancy (MMD), improving the system’s performance when using a global threshold. On the other branch, we use Poly-1 Cross Entropy Loss to learn fixed-length holistic representations, which further enhance the separation achieved by the local representation branch.
To evaluate the proposed method, we conduct several ablation experiments that con- firm the reduction of both separation and alignment errors, and show that Triplet-MMD plays a significant role in reducing the latter. We further extend Triplet-MMD by replacing MMD with other divergence metrics, and find that they achieve comparable results—demonstrating that alignment error can be reduced by ensuring the dissimilarity scores of the OSV system follow a consistent distribution.
As a WI framework, HoLoSig has no dependency on writers and is therefore capable of verifying signatures from unseen writers without the need for any adaptation or fine- tuning. However, HoLoSig is not free from biases related to acquisition devices and protocols. To assess the model’s robustness to these particularities, we conduct several experiments in which training is performed using data acquired with different devices and protocols from those used to evaluate the system’s EER. Our results are promising, as they show not only strong generalization capability but also that HoLoSig can outperform state-of-the-art methods while using as little as half the training data they use.
HoLoSig is designed for stylus-written OSV. However, we extend its architecture to address the problem of finger-written OSV. One of the major challenges in finger-written OSV is the limited size of available datasets compared to those for stylus-written signatures, which often makes training from scratch difficult. To address this, we add a domain classifier branch to HoLoSig, effectively transforming it into a Domain Adaptation Neural Network (DANN). The resulting HoLoDANN architecture allows us to leverage knowledge from both stylus- and finger-written signatures to better tackle the finger-written OSV problem.
HoLoSig and HoLoDANN achieve state-of-the-art results on DeepSignDB, the largest OSV dataset to date. HoLoSig’s EER results in the stylus scenario against skilled and random forgeries are: 1.73% (4vs1 skilled), 3.29% (1vs1 skilled), 0.43% (4vs1 random), and 0.89% (1vs1 random). HoLoDANN’s EER results in the finger scenario against skilled and random forgeries are: 5.65% (4vs1 skilled), 9.99% (1vs1 skilled), 0.55% (4vs1 random), and 1.78% (1vs1 random).
|
|
|
10
|
-
STEFANO LUPPI SPÓSITO
-
Técnicas, métodos, processos, frameworks e ferramentas para elicitar requisitos de privacidade: Uma revisão de literatura
-
Orientador : EDNA DIAS CANEDO
-
MEMBROS DA BANCA :
-
DAVI VIANA DOS SANTOS
-
EDNA DIAS CANEDO
-
GENAINA NUNES RODRIGUES
-
GERALDO PEREIRA ROCHA FILHO
-
Data: 29/07/2025
-
-
Mostrar Resumo
-
A crescente demanda por sistemas que respeitem a privacidade dos usuários, especialmente frente à crescente complexidade dos ambientes digitais e ao uso intensivo de dados pessoais, tem colocado os requisitos de privacidade no centro das atenções da Engenharia de Requisitos (ER). Com a promulgação de legislações como o ''General Data Protection Regulation'' (GDPR) na União Europeia e a Lei Geral de Proteção de Dados (LGPD) no Brasil, torna-se essencial adotar abordagens eficazes para identificar, especificar e gerenciar esses requisitos ao longo do ciclo de vida do software. Metodologia: Foi conduzida uma Revisão Sistemática da Literatura (SLR), seguindo as diretrizes de Kitchenham e Charters, com o objetivo de identificar as técnicas, métodos, processos, frameworks e ferramentas utilizadas nas diferentes fases da Engenharia de Requisitos para tratar requisitos de privacidade. A busca abrangeu quatro bases digitais (ACM, IEEE Xplore, Scopus e Web of Science), resultando em 1.906 estudos iniciais. Após aplicação de critérios de inclusão, exclusão e avaliação da qualidade, 125 estudos primários foram selecionados para análise. A SLR foi complementada por uma pesquisa com 31 profissionais da indústria, com o intuito de comparar os resultados acadêmicos com a prática do mercado. Os dados extraídos foram organizados por meio de um formulário contendo 36 critérios relacionados aos objetivos da pesquisa. Resultados e Discussão: A análise revelou que as técnicas mais empregadas consistem em: SQUARE, Secure Tropos, PriS, i* (i-star), LINDDUN, STRAP e Privacy By Design. Adicionalmente, a fase de elicitação de requisitos foi a mais abordada nos estudos (36 dos 48 estudos com foco específico em fases da ER). As fases de validação, gestão e especificação foram pouco exploradas. Observou-se que 88 estudos foram desenvolvidos em ambientes acadêmicos, enquanto apenas 33 foram conduzidos na indústria. Isso indica uma disparidade significativa entre o que é pesquisado e o que é efetivamente aplicado. Além desses fatores, identificou-se desafios recorrentes tanto na literatura quanto na indústria, como a dificuldade de compreender e aplicar conceitos de privacidade e regulamentações legais, conflitos entre requisitos de privacidade e segurança, carência de ferramentas adequadas no contexto industrial e riscos de aumento da complexidade e de atrasos no desenvolvimento devido a inclusão de requisitos de privacidade. A pesquisa com profissionais confirmou que muitos desconhecem as técnicas mais citadas na literatura, apontando para a necessidade de transferência de conhecimento entre academia e indústria. Conclusões: O estudo fornece uma visão abrangente das abordagens utilizadas para tratar requisitos de privacidade na Engenharia de Requisitos. Embora existam diversas técnicas bem estruturadas, sua aplicação ainda é limitada fora do ambiente acadêmico. Os resultados sugerem a urgência em desenvolver ferramentas mais acessíveis, adaptáveis e validadas empiricamente, além de investir em formação profissional. A pesquisa também destaca a importância de futuras investigações que promovam a integração entre academia e indústria, com foco na validação prática, escalabilidade e facilidade de uso das abordagens propostas. Assim, espera-se contribuir para sistemas mais seguros, transparentes e alinhados com as legislações de proteção de dados.
-
Mostrar Abstract
-
Context:Requirements Engineering (RE) relies on the collaboration of various roles—such as requirements engineers, stakeholders, and developers—and various techniques, methods, processes, frameworks, and tools. This makes RE a highly human-dependent process that benefits greatly from tool support. Understanding how these techniques, methods, processes, frameworks, and tools are applied across RE phases could provide valuable insights into ways to enhance the RE process, contributing to more successful outcomes. Objective: The primary objective of this study is to identify the techniques, methods, processes, frameworks, and tools applied across different requirements engineering phases—such as elicitation, analysis, specification, validation, and management—to address privacy requirements. Method: We conducted a systematic literature review (SLR) and identified 125 primary studies, and we also conducted a survey with 31 practitioners. \textbf{Results:} Our review identified a range of techniques, methods, processes, frameworks, and tools for addressing privacy requirements. Most studies were conducted in academic contexts, with the most frequently used tools being: PriS Method, Secure Tropos, LINDDUN, i* (i-star), STRAP (Structured Analysis for Privacy), Privacy by Design (PbD), and SQUARE. Additionally, over 75\% of the studies applied these tools in the privacy requirements elicitation phase. In the industry, most of the techniques identified in the literature are not known or used by practitioners. \textbf{Conclusion:} This study provides a comprehensive analysis of techniques and tools for privacy requirements in RE, revealing a strong focus on academic contexts with limited industry application. Future research should explore the scalability and effectiveness of these tools in real-world environments, as well as the reasons why practitioners do not use them.
|
|
|
11
|
-
LEANDRO DE SOUZA OLIVEIRA
-
Assessing the Resilience of Popular Android Apps Against Repackaging Using Controlled Variants and Instrumentation
-
Orientador : RODRIGO BONIFACIO DE ALMEIDA
-
MEMBROS DA BANCA :
-
RODRIGO BONIFACIO DE ALMEIDA
-
GENAINA NUNES RODRIGUES
-
EDUARDO JAMES PEREIRA SOUTO
-
RUI RUA
-
Data: 13/08/2025
-
-
Mostrar Resumo
-
Contexto: O reempacotamento (ou repackaging) de aplicativos Android representa uma ameaça significativa à segurança, com potencial para impactar a receita de desenvolvedores e expor usuários a softwares maliciosos. No entanto, o reempacotamento também é amplamente utilizado em técnicas de instrumentação que incorporam mecanismos de monitoramento aos aplicativos, viabilizando pesquisas de segurança sobre seu comportamento. A taxa de sucesso de técnicas de instrumentação varia consideravelmente e explicações genéricas para falhas deixam em aberto a seguinte questão: até que ponto aplicativos populares são suscetíveis ao reempacotamento? Objetivo: O objetivo deste trabalho é identificar e analisar os fatores que levam ao insucesso das diversas técnicas de instrumentação via repackaging. Estrutura da Pesquisa: O presente estudo propõe uma abordagem sistemática para a compreensão do problema. Para isso, foi desenvolvida uma infraestrutura específica capaz de automatizar e monitorar o processo de reempacotamento. Em seguida, essa infraestrutura foi aplicada a um conjunto curado de aplicativos populares da Google Play Store. Durante a execução dos experimentos, foram coletados e analisados dados sobre o comportamento desses aplicativos frente às diferentes etapas do reempacotamento, oferecendo subsídios para futuras pesquisas e estratégias de mitigação. Resultados: Entre os resultados obtidos, apresentamos o InstruMate, uma abordagem sistemática capaz de gerar controladamente variantes reempacotadas-por meio da modificação de artefatos sensíveis do Android-para avaliar a resiliência de aplicativos ao reempacotamento, utilizando procedimentos de verificação que comparam o comportamento de cada variante com sua versão original. Em um conjunto curado de 156 aplicativos populares da Google Play Store, nosso estudo empírico revelou que 86% não são resilientes ao reempacotamento básico (por exemplo, alteração de assinatura), 81% permitem execução em modo de depuração, 83% toleram modificações superficiais e 65% são confirmadamente vulneráveis à adulteração de código. De forma geral, nossas contribuições incluem essa nova infraestrutura para reempacotamento e um procedimento aprimorado de verificação de versões repacotadas. Conclusões: Os resultados obtidos evidenciam tanto a facilidade quanto os riscos associados ao reempacotamento de aplicativos Android, além de validarem o InstruMate como uma infraestrutura eficaz para avaliar a resiliência de apps frente a esse tipo de modificação. Analistas de segurança podem se beneficiar do teste de repackaging proposto, já que as técnicas de instrumentação utilizadas têm como objetivo alcançar cobertura de código simples. Caso um aplicativo se mostre resistente a essas abordagens, é provável que técnicas mais avançadas também não obtenham êxito.
-
Mostrar Abstract
-
Context: The repackaging of Android applications poses a significant security threat, with the potential to impact developer revenue and expose users to malicious software. However, repackaging is also widely used in instrumentation techniques that embed monitoring mechanisms into apps, enabling security research on their behavior. The success rate of instrumentation techniques varies considerably, and generic explanations for failures leave the following question open: To what extent are popular apps susceptible to repackaging? Objective: To identify and analyze the factors that lead to the failure of various repackaging-based instrumentation techniques. Research Structure: This study proposes a systematic approach to understanding the problem. To that end, a dedicated infrastructure was developed to automate and monitor the repackaging process. This infrastructure was then applied to a curated set of popular apps from the Google Play Store. During the experiments, data were collected and analyzed regarding how these apps behaved when subjected to various stages of repackaging, providing insights for future research and mitigation strategies. Results: We present InstruMate, a systematic approach that generates controlled repackaged variants by modifying sensitive Android artifacts to assess app resilience to repackaging, using verification procedures that compare the behavior of each variant with its original version. In a curated dataset of 156 popular Google Play apps, our empirical study revealed that 86% are not resilient to basic repackaging (e.g., signature alteration), 81% allow execution in debug mode, 83% tolerate superficial modifications, and 65% are vulnerable to advanced code tampering, while a small group actively deploys defenses against repackaging. In general, our contributions include a new repackaging infrastructure and an improved verification procedure for repackaged versions. Conclusions: Overall, the findings highlight both the ease and the risks associated with Android app repackaging, while also validating InstruMate as an effective infrastructure for assessing app resilience to such modifications. Security analysts can benefit from the proposed repackaging test, as the instrumentation techniques used aim to achieve code coverage. If an app proves resistant to these approaches, it is likely that more advanced techniques will also fail.
|
|
|
12
|
-
MAYARA CHEW MARINHO
-
Reconhecimento de Entidades Nomeadas Multilíngue: Um Estudo de Design sobre Documentos Acadêmicos e Institucionais
-
Orientador : VINICIUS RUELA PEREIRA BORGES
-
MEMBROS DA BANCA :
-
GERALDO PEREIRA ROCHA FILHO
-
LUIS PAULO FAINA GARCIA
-
NÁDIA FELIX FELIPE DA SILVA
-
VINICIUS RUELA PEREIRA BORGES
-
Data: 22/08/2025
-
-
Mostrar Resumo
-
Documentos acadêmicos e institucionais desempenham um papel importante nas instituições de ensino superior, uma vez que são registros formais das trajetórias acadêmicas dos estudantes, das decisões institucionais e do cumprimento de normas regulatórias. Dada a grande quantidade de documentos produzidos e armazenados ao longo do tempo, o uso de Reconhecimento de Entidades Nomeadas torna-se uma tarefa essencial de Processamento de Linguagem Natural para extrair informações de textos não estruturados e melhorar os processos de busca nos sistemas eletrônicos de informação dessas instituições. O objetivo do NER é identificar e classificar palavras de acordo com categorias predefinidas de entidades, permitindo-se transformar texto bruto em dados estruturados. Documentos acadêmicos podem conter palavras em mais de um idioma, como nomes de eventos internacionais, atividades de pesquisa e localizações geográficas, o que caracteriza o NER multilíngue. Esta pesquisa de mestrado aborda o NER multilíngue em documentos acadêmicos em cenários que envolvem textos longos, disponibilidade limitada de dados rotulados e presença de entidades de baixa frequência. Diversas abordagens de NER, incluindo métodos clássicos e modelos baseados em LLMs, são comparadas e avaliadas com o uso de métricas quantitativas. A inexistência de corpora de documentos acadêmicos rotulados disponíveis publicamente demandou a criação de corpora multilíngues anotados para NER. Foram realizados experimentos com o objetivo de avaliar a qualidade dos corpora construídos e comparar o desempenho de modelos NER, como CRF, BiLSTM, CNN-BiLSTM, BERT, LLaMA ajustado e DeepSeek ajustado. Os resultados indicaram que CRF e BERT apresentaram os melhores desempenhos no corpus multilíngue desenvolvido, com macro F1-score superior a 0,9. As métricas Krippendorff's Alpha e Cohen's Kappa demonstraram que os rótulos atribuídos às entidades são confiáveis e que o corpus possui alta qualidade. Por fim, uma ferramenta de visualização foi proposta para visualizar entidades nomeadas, inluindo entidades aninhadas, permitindo uma análise visual detalhada dos resultados dos modelos de NER.
-
Mostrar Abstract
-
Academic and institutional documents play a central role in higher education institutions, serving as formal records of students' academic trajectories, institutional decisions, and regulatory compliance. Given the large volume of documents produced and stored over time, NER can be an essential NLP task for extracting information from unstructured documents and improving search processes within electronic information systems in educational institutions. The goal of NER is is to identify and classify text spans according to predefined categories of real-world entities, enabling the conversion of raw text into a structured format. Brazilian academic documents may contain terms in different languages, such as international events, research related activities, and locations, steering research towards multilingual NER. In this context, this research addresses multilingual NER in academic documents in scenarios of long documents, limited availability of labeled data, and the presence of low frequency entities. Several NER approaches, encompassing the classical methods and those based on LLMs, have their performances compared and evaluated using quantitative metrics. Moreover, the lack of publicly available academic documents required the construction of labeled corpora for multilingual NER. Experiments were conducted to evaluate the quality of the constructed corpora and to compare the performance of state-of-the-art NER models, including CRF, BiLSTM, CNN-BiLSTM, BERT, fine-tuned LLaMA, and fine-tuned DeepSeek. The results indicated that CRF and BERT achieved the best performance on the developed multilingual corpus, with macro F1-scores above 0.9. Krippendorff's Alpha and Cohen's Kappa metrics demonstrated that the entity labels are reliable and that the corpus has high quality. Finally, to enable the analysis of the predicted categories, a visualization tool for named entities was proposed to display NER and nested NER entities.
|
|
|
13
|
-
GUILHERME PEREIRA PAIVA
-
Explorando Large Language Models para a Geração de Requisitos de Software a partir de Issues em Projetos de Código Aberto
-
Orientador : EDNA DIAS CANEDO
-
MEMBROS DA BANCA :
-
EDNA DIAS CANEDO
-
GERALDO PEREIRA ROCHA FILHO
-
LI WEIGANG
-
RODRIGO PEREIRA DOS SANTOS
-
Data: 25/08/2025
-
-
Mostrar Resumo
-
Contexto: A Engenharia de Requisitos (ER) em projetos de software open-source (OSS) sofre com a informalidade e o grande volume de issues, gerando lacunas entre solicitações de usuários e artefatos formais exigidos por normas como a ISO/IEC/IEEE 29148:2018. Objetivo: Avaliar empiricamente a eficácia de LLMs — modulada por diferentes estratégias de engenharia de prompts — na geração automática de requisitos de software a partir de títulos de issues . Método: Foram coletados 150 títulos de issues de cinco repositórios OSS altamente ativos; esses títulos foram processados pelos LLMs o3-mini e DeepSeek R1 , combinados com três estilos de prompt (Zero-shot, Few-shot e Expert Identity), resultando em 900 requisitos avaliados por um LLM-juiz (Qwen QwQ-32b) segundo as métricas Não Ambiguidade, Verificabilidade e Singularidade derivadas da norma ISO/IEC/IEEE 29148. Resultados: Ambos os LLMs produziram requisitos de alta qualidade (médias > 4,2 numa escala 1–5), mas com variação significativa; a estratégia Few-shot elevou consistentemente a Singularidade, enquanto a Expert melhorou a Verificabilidade ao custo de requisitos menos singulares, evidenciando trade-offs dependentes do modelo e do prompt . Conclusão: LLMs são assistentes promissores para automatizar etapas críticas da ER em OSS , porém sua eficácia exige prompts cuidadosamente projetados e supervisão humana para balancear atributos de qualidade concorrentes e assegurar requisitos claros, verificáveis e atômicos.
-
Mostrar Abstract
-
Context: Large Language Models (LLMs) are widely recognized for their advanced capabilities in Natural Language Processing (NLP) and text generation. These models have the potential to transform practices in Software Requirements Engineering (RE), especially in open-source projects, where requirements elicitation is a complex challenge. Issues in open-source repositories often contain valuable information for generating software requirements. Objective: This study aims to investigate the use of LLMs for the automated generation of software requirements from open-source project issues and to evaluate the impact of different prompt development techniques on the quality of the generated requirements. Method: The research was conducted in two main stages: (1) Mining Software Repositories, where issues were extracted from three Machine Learning project repositories on GitHub, and (2) Generating Requirements using LLMs, where different prompt engineering techniques were applied to generate and evaluate requirements from the extracted data. Results: Software requirements were generated from the mined issues, and the results indicated that specific prompt engineering techniques, such as Expert Few-Shot, provided improvements in the quality of the generated requirements compared to simpler techniques like Zero-Shot Prompt. Conclusion: The use of LLMs in Software Requirements Engineering is promising, especially when combined with advanced prompt engineering techniques. This research contributes to advancing AI technologies applied to RE and demonstrates the potential for automating the requirements generation process in open-source projects.
|
|
|
14
|
-
FAUSTO CARVALHO MARQUES SILVA
-
SmartChat: Explorando LLMs para a Geração de Sementes Iniciais no Fuzzing de Smart Contracts com Priorização Guiada por Vulnerabilidades
-
Orientador : RODRIGO BONIFACIO DE ALMEIDA
-
MEMBROS DA BANCA :
-
ROBERTA DE SOUZA COELHO
-
RODRIGO BONIFACIO DE ALMEIDA
-
ROHIT GHEYI
-
VANDER RAMOS ALVES
-
Data: 12/09/2025
-
-
Mostrar Resumo
-
O alto valor financeiro do ecossistema da blockchain Ethereum tornou os contratos inteligentes alvos principais para atacantes, atraindo crescente atenção de pesquisadores da área e de auditores de segurança. Em resposta, ferramentas automatizadas—baseadas principalmente em análise estática ou dinâmica—tornaram-se centrais nos esforços para identificação de vulnerabilidades. No entanto, os atacantes frequentemente descobrem e exploram falhas mais rapidamente do que os mecanismos de defesa conseguem reagir, deixando claro que ainda são necessárias estratégias de detecção mais eficazes. Embora fuzzing tenha se mostrado útil na descoberta de vulnerabilidades em contratos inteligentes, muitos fuzzers ainda enfrentam dificuldades, sobretudo por iniciarem suas campanhas com sementes de entrada de baixa qualidade.
Com o objetivo de mitigar essa limitação, investigamos o uso de Large Language Models (LLMs) pré treinados para gerar sementes iniciais de alta qualidade para o fuzzing de contratos inteligentes. Essa abordagem é combinada com um algoritmo de priorização guiado por vulnerabilidades, com o objetivo de direcionar o fuzzing para sequências de transações com maior probabilidade de revelar falhas de segurança. Enfrentamos a dependência crítica de fuzzing em relação à qualidade das sementes iniciais avaliando sete LLMs pré-treinados, abrangendo modelos de código aberto e fechado, quanto à capacidade de gerar sequências de transações estruturalmente válidas, sem a necessidade de customização.
Avaliamos empiricamente nossa ferramenta, SmartChat, por meio de uma série de experimentos, analisando a qualidade da geração das sementes quanto à validade estrutural, correção semântica e sintática, métricas de cobertura e a eficácia do fuzzing sob diferentes valores de amostragem de temperatura.
Os resultados experimentais demonstram que o SmartChat supera técnicas avançadas de geração de sementes baseadas em fluxo de dados. Em particular, nossa abordagem revela até 15,6% mais vulnerabilidades do que os fuzzers estado da arte, alcançando uma speedup de 6,67× a 44×, ao mesmo tempo em que melhora a cobertura de código em diversas classes de vulnerabilidades.
-
Mostrar Abstract
-
The high financial value of the Ethereum blockchain ecosystem has made smart contracts prime targets for attackers, attracting growing attention from both blockchain researchers and security auditors. In response, automated tools—relying largely on static or dynamic analysis—have become central to efforts in identifying vulnerabilities. Nevertheless, attackers often find and exploit vulnerabilities faster than defenders can react, making it clear that better detection strategies are still needed. While fuzz testing has been useful for uncovering bugs in smart contracts, many fuzzers still struggle, primarily because they start with low-quality input seeds.
To address this limitation, we investigate the use of pre-trained Large Language Models (LLMs) to generate semantically-aware initial seeds for smart contract fuzzing. This approach is combined with a vulnerability-guided prioritization algorithm to steer fuzzing toward transaction sequences likely to reveal security flaws. We address fuzzing’s critical dependency on initial seed quality by evaluating seven pre-trained LLMs—spanning both open- and closed-weight models—based on their ability to generate structurally valid transaction sequences without requiring model customization.
We empirically evaluate our tool, SmartChat, through a series of experiments, assessing seed generation quality, structural validity, semantic and syntactic correctness, coverage metrics, and fuzzing effectiveness across varying sampling temperatures.
The experimental results demonstrate that SmartChat outperforms advanced data-flow-based seed generation techniques. Specifically, our approach uncovers up to 15.6% more vulnerabilities than state-of-the-art fuzzers, achieving a speedup of 6.67× to 44× while also increasing code coverage across a wide range of vulnerability classes.
|
|
|
15
|
-
JOSÉ VICENTE CLAVO TAFUR
-
Sparse Value Flow Analysis for Java Bytecode: An Empirical Assessment
-
Orientador : RODRIGO BONIFACIO DE ALMEIDA
-
MEMBROS DA BANCA :
-
GENAINA NUNES RODRIGUES
-
RODRIGO BONIFACIO DE ALMEIDA
-
RODRIGO CARDOSO AMARAL DE ANDRADE
-
VANDER RAMOS ALVES
-
Data: 23/10/2025
-
-
Mostrar Resumo
-
O vazamento de dados sensíveis é uma importante preocupação de segurança em sistemas de software modernos. A análise estática de fluxo de informações (taint analysis) tem se mostrado eficaz na identificação de possíveis vazamentos ao rastrear como os valores de dados se propagam ao longo de um programa. A Análise de Fluxo de Valores Esparso (Sparse Value Flow Analysis – SVFA) é uma técnica de análise estática que apresentou bons resultados na detecção de vazamentos de dados em programas escritos em C e C++. No entanto, sua aplicabilidade para programas em bytecode Java ainda é pouco explorada.
Esta dissertação investiga a eficácia do JSVFA, um analisador estático baseado em SVFA voltado para aplicações Java e Android. O trabalho apresenta um estudo empírico que compara a acurácia do JSVFA com ferramentas de ponta para análise de fluxo de informações em Java — FlowDroid e Joana — utilizando o conjunto de testes SecureBench. Além disso, o trabalho aprimora a implementação existente do JSVFA, buscando melhorar sua precisão, revocação (recall) e capacidade geral de análise. A nova versão também é integrada ao TaintBench, um conjunto de benchmarks voltado para aplicações Android, a fim de avaliar sua eficácia nesse ambiente.
Os resultados experimentais mostram que o JSVFA aprimorado supera significativamente sua versão anterior em termos de revocação, F-score e taxa de sucesso nos casos de teste dos benchmarks, embora apresente uma leve redução na precisão. Em comparação com o FlowDroid e o Joana, o JSVFA alcança um equilíbrio entre precisão, revocação e F-score, posicionando-se como uma alternativa competitiva. Experimentos adicionais no contexto Android revelam que o JSVFA identificou 86 e 655 novos vazamentos, respectivamente, que não estavam nos relatórios originais do TaintBench, mas foram posteriormente confirmados como verdadeiros positivos. No entanto, o JSVFA ainda falha em identificar alguns caminhos source-sink reportados como reais pelo ground truth do benchmark.
Em conclusão, o JSVFA demonstra desempenho competitivo para a análise de código Java e apresenta resultados promissores para aplicações Android. Entretanto, é necessário um estudo mais aprofundado sobre o ciclo de vida das aplicações Android para aumentar sua cobertura e precisão na detecção de vazamentos de dados.
-
Mostrar Abstract
-
Sensitive data leakage is a major security concern in modern software systems. Static taint analysis has proven effective in identifying potential leaks by tracking how data values propagate through programs. Sparse Value Flow Analysis (SVFA) is a static analysis technique that has shown strong results for detecting data leaks in C and C++ programs. However, its applicability to Java bytecode programs remains underexplored.
This thesis investigates the effectiveness of JSVFA, an SVFA-based static analyzer for Java and Android applications. It presents an empirical study comparing JSVFA’s accuracy with state-of-the-art Java taint analysis tools—FlowDroid and Joana—using the SecureBench benchmark. Moreover, the work enhances the existing JSVFA implementation to improve its precision, recall, and overall analysis capabilities. The improved version is further integrated into TaintBench, a benchmark suite for Android applications, to assess its effectiveness in mobile environments.
Experimental results show that the enhanced JSVFA significantly outperforms its predecessor in recall, F-score, and benchmarks test cases pass rate, though with a slight decrease in precision. Compared to FlowDroid and Joana, JSVFA achieves a balanced trade-off among precision, recall, and F-score, positioning it as a competitive alternative. Additional experiments in the Android context reveal that JSVFA identified 86 and 655 previously unreported leaks—later confirmed as true positives—though it still misses some known source-sink paths from the benchmark’s ground truth.
In conclusion, JSVFA demonstrates competitive performance for Java code analysis and shows promising results for Android applications. Nevertheless, further exploration of Android lifecycle behaviors is required to its detection accuracy for Android applications.
|
|
|
16
|
-
VICENTE ROMEIRO DE MORAES
-
Assured Mission Adaptation of Multi-Robot Systems
-
Orientador : GENAINA NUNES RODRIGUES
-
MEMBROS DA BANCA :
-
GENAINA NUNES RODRIGUES
-
RODRIGO BONIFACIO DE ALMEIDA
-
VANDER RAMOS ALVES
-
FRANCO RAIMONDI
-
Data: 28/11/2025
-
-
Mostrar Resumo
-
Projetar sistemas robóticos que possam se adaptar de forma segura a circunstâncias imprevistas continua sendo, em grande parte, um problema em aberto na robótica. Esse desafio torna-se ainda mais complexo ao lidar com ambientes incertos e dinâmicos, nos quais os planos de missão podem precisar ser reavaliados em tempo de execução em resposta a mudanças no sistema ou nos próprios agentes. Para que esses sistemas possam se adaptar de forma segura em ambientes não controlados, eles necessitam de uma infraestrutura capaz de monitorar e gerenciar o estado do sistema adaptado, garantindo que o sistema permaneça consistente antes e depois da adaptação. No entanto, até o momento, tal infraestrutura ainda não foi concretizada para sistemas robóticos. Para enfrentar esse problema, propomos uma abordagem em duas frentes para assegurar o comportamento correto do sistema durante a adaptação de sistemas multi-robôs: um processo sistemático para projetar garantias de adaptação segura e um modelo de supervisão em tempo de execução para assegurar a transição confiável entre planos de missão.
-
Mostrar Abstract
-
Designing robotic systems that can adapt to unforeseen circumstances safely remains largely an open problem in robotics. This challenge is further complicated when dealing with uncertain and dynamic environments, where mission plans may need to be reevaluated at runtime in response to changes in the system or in the agents themselves. In order for these systems to adapt safely in uncontrolled environments, they require an infrastructure capable of monitoring and managing the state of the adapted system, guaranteeing the system is consistent before and after the adaptation takes place. At present, however, such an infrastructure has yet to be realized for robotic systems. To tackle this problem, we propose a two-pronged approach for ensuring correct system behavior during the adaptation of multi-robot systems: a systematic process for designing guarantees for safe adaptation, and a runtime supervision model to ensure reliable transition between mission plans.
|
|
|
17
|
-
Palton Lima Alves
-
Explorando Estratégias baseadas em Invariantes de Grafos para o Posicionamento de Servidores de Fog
-
Orientador : MARCELO ANTONIO MAROTTA
-
MEMBROS DA BANCA :
-
MARCELO ANTONIO MAROTTA
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
GERALDO PEREIRA ROCHA FILHO
-
CRISTIANO BONATO BOTH
-
Data: 01/12/2025
-
-
Mostrar Resumo
-
O paradigma de fog computing busca reduzir a latência e ampliar a qualidade dos serviços ao aproximar os servidores das aplicações dos usuários finais. Contudo, sua implementação em redes cloud envolve custos significativos e requer a escolha eficiente do posicionamento dos nós de fog. Esta dissertação propõe e compara diferentes métodos para resolver esse problema, incluindo um modelo exato baseado em programação linear inteira mista (MILP) e heurísticas fundamentadas em invariantes de grafos, como excentricidade e conectividade. As abordagens foram avaliadas em múltiplas topologias reais e sintéticas sob métricas de latência média e número de nós implantados. Os resultados indicam que as heurísticas atingem desempenho próximo ao ótimo com menor custo computacional, oferecendo alternativas viáveis para cenários de aplicações sensíveis à latência e restritas por capacidade.
-
Mostrar Abstract
-
The fog computing paradigm aims to reduce latency and enhance service quality by bringing application servers closer to end users. However, its implementation in cloud-based networks entails significant costs and requires an efficient strategy for positioning fog nodes. This dissertation proposes and compares different methods to address this problem, including an exact model based on Mixed Integer Linear Programming (MILP) and heuristics grounded in graph invariants such as eccentricity and connectivity. The approaches were evaluated on multiple real and synthetic topologies using metrics of average latency and number of deployed nodes. The results show that the heuristic methods achieve performance close to the optimal solution with lower computational cost, providing viable alternatives for latency-sensitive and capacity-constrained application scenarios.
|
|
|
18
|
-
WAGNER EMANUEL DA SILVA FERREIRA
-
Ready-to-Update: A Practical Approach for Mapping and Prioritizing Vulnerability Remediation of Third-Party Libraries
-
Orientador : RODRIGO BONIFACIO DE ALMEIDA
-
MEMBROS DA BANCA :
-
RODRIGO BONIFACIO DE ALMEIDA
-
VANDER RAMOS ALVES
-
ELAINE VENSON
-
UIRA KULESZA
-
Data: 09/12/2025
-
-
Mostrar Resumo
-
A prática disseminada de reuso de código aberto acelera o desenvolvimento e melhora a qualidade do software ao otimizar o tempo, os recursos e a especialização do desenvolvedor; contudo, essa utilização pode representar um risco de segurança significativo. Em resposta, pesquisadores têm proposto diversas abordagens para identificar dependências vulneráveis e remediar projetos afetados. Infelizmente, não existe uma solução universal, visto que as abordagens existentes frequentemente exigem adaptação para atender às necessidades específicas de cada empresa.
Este trabalho apresenta e avalia o Ready-to-Update, uma nova metodologia desenvolvida para priorizar e identificar dependências com vulnerabilidades conhecidas que requerem correção imediata. O Ready-to-Update foi elaborado com base em conhecimentos obtidos em uma grande instituição financeira (FinCompany), incorporando métodos já estabelecidos, mas adaptados ao grau de maturidade em segurança e às necessidades da FinCompany. A metodologia articula-se em quatro passos centrais: (i) identificação das dependências de um projeto, (ii) detecção de vulnerabilidades conhecidas nessas dependências, (iii) localização de versões mais atualizadas e seguras para as dependências vulneráveis e (iv) avaliação da compatibilidade dessas versões.
Demonstramos os resultados da aplicação do Ready-to-Update em 2.140 artefatos Java (de diferentes versões de 585 projetos) implementados no ambiente de produção da FinCompany entre janeiro e julho de 2024. Os resultados revelam uma prevalência significativa de vulnerabilidades tanto em dependências diretas quanto em transitivas. Por exemplo, a vasta maioria dos projetos (99,53%) depende de artefatos afetados por vulnerabilidades críticas. Além disso, a análise indicou que 92,40% das dependências diretamente vulneráveis possuíam versões mais recentes disponíveis. Dessas novas versões, 65,62% foram consideradas seguras-ou seja, não apresentavam vulnerabilidades reportadas-sugerindo que a atualização dessas dependências poderia reduzir o número de dependências diretas vulneráveis em 98,63% dos projetos analisados.As versões identificadas como seguras foram, posteriormente, submetidas a testes de compatibilidade binária e semântica. Isto demonstrou que, para 86,3% das dependências diretas vulneráveis, a remediação é alcançável apenas pela atualização da versão da dependência direta.
A abordagem Ready-to-Update se mostrou promissora para a remediação de vulnerabilidades, ao permitir que os desenvolvedores concentrem seus esforços em dependências que são diretamente gerenciáveis e para as quais existem alternativas mais seguras, o que, em última análise, leva a uma resolução mais rápida e eficaz das vulnerabilidades identificadas.
-
Mostrar Abstract
-
The widespread practice of open-source code reuse accelerates development and improves software quality by optimizing time, resources, and developer expertise; however, it may also introduce significant security risks. In response, researchers have proposed several approaches for identifying vulnerable dependencies and remediating affected projects. Unfortunately, no universal solution exists, as current approaches often require adaptation to meet the specific needs of each organization.
This work presents and evaluates Ready-to-Update, a new methodology designed to prioritize and identify known-vulnerable dependencies that require immediate remediation. Ready-to-Update was developed based on insights gathered from a large financial institution (FinCompany), incorporating established methods while adapting them to the company’s security maturity and operational context. The methodology is structured into four main steps: (i) identification of a project's dependencies, (ii) detection of known vulnerabilities affecting these dependencies, (iii) discovery of more secure and up-to-date versions, and (iv) assessment of compatibility between the vulnerable dependency and candidate upgrade versions.
We demonstrate the results of applying Ready-to-Update to 2,140 Java artifacts (from multiple versions of 585 projects) deployed in FinCompany’s production environment between January and July 2024. The results reveal a high prevalence of vulnerabilities in both direct and transitive dependencies. For instance, the vast majority of projects (99.53%) rely on artifacts affected by critical security issues. Additionally, the analysis showed that 92.40% of directly vulnerable dependencies had more recent versions available. Among these, 65.62% were considered safe—i.e., with no reported vulnerabilities—suggesting that updating them could reduce the presence of directly vulnerable dependencies in 98.63% of the analyzed projects. The safe versions were subsequently subjected to binary and semantic compatibility checks, demonstrating that remediation is achievable for 86.3% of directly vulnerable dependencies through version upgrading alone.
Overall, the Ready-to-Update approach proved effective in guiding vulnerability remediation efforts, allowing teams to focus on dependencies that are manageable and have available secure alternatives. This leads to quicker and more efficient vulnerability resolution and supports more secure software development practices at scale.
|
|
|
19
|
-
MANOEL VIEIRA COELHO NETO
-
TRANSLATING EXTENDED GOAL MODELS INTO GOAL MANAGEMENT CONTROLLERS IN PRISM
-
Orientador : GENAINA NUNES RODRIGUES
-
MEMBROS DA BANCA :
-
GENAINA NUNES RODRIGUES
-
RODRIGO BONIFACIO DE ALMEIDA
-
VANDER RAMOS ALVES
-
SIMOS GERASIMOU
-
Data: 16/12/2025
-
-
Mostrar Resumo
-
Sistemas auto-adaptativos (SAS) frequentemente confundem a avaliação de objetivos e a seleção de estratégias dentro de uma única camada arquitetural, o que limita sua capacidade de adaptação em tempo de execução. A arquitetura MORPH aborda essa questão ao estruturar a adaptação em três camadas de controladores: Gerenciamento de Objetivos, Gerenciamento de Estratégias e Execução de Estratégias.
Nesse contexto, o framework EDGE (ExtenDed Goal modEling) avança a camada de Gerenciamento de Objetivos ao introduzir uma nova notação de modelagem, guiada por cinco desiderata que apoiam o raciocínio dinâmico sobre objetivos, a síntese de planos e a memória de decisões. O EDGE ainda possibilita a geração de modelos de Processos de Decisão de Markov (MDP) na linguagem PRISM, representando controladores de objetivos capazes de monitorar conquistas e calcular planos de adaptação sob incerteza.
No entanto, alinhar modelos de objetivos de alto nível com controladores de gerenciamento de objetivos formalmente verificáveis continua sendo um desafio central. À medida que os sistemas evoluem, a ausência de transformações automáticas que preservem a semântica frequentemente leva a divergências entre requisitos e lógica executável, comprometendo a garantia e a manutenibilidade.
Para enfrentar essa lacuna, propomos uma ferramenta que sintetiza automaticamente modelos MDP rastreáveis e verificáveis de controladores de objetivos em PRISM, a partir de modelos EDGE anotados. Em consonância com os desiderata do EDGE, a ferramenta oferece uma tradução automatizada, modular e escalável de modelos i* enriquecidos para código PRISM, reduzindo o esforço manual e reforçando a conexão entre a intenção em nível de objetivos e as estratégias de adaptação em tempo de execução — promovendo, assim, o avanço da adoção prática da engenharia dirigida por modelos em sistemas auto-adaptativos.
-
Mostrar Abstract
-
Self-adaptive systems (SAS) frequently conflate goal evaluation and strategy selection within a single architectural layer, which limits their runtime adaptation capacity. The MORPH architecture addresses this issue by structuring adaptation into three controller layers: Goal Management, Strategy Management, and Strategy Enactment. Within this context, the EDGE (ExtenDed Goal modEling) framework advances the Goal Management layer by introducing a new modelling notation, guided by five desiderata that support dynamic goal reasoning, plan synthesis, and decision memory. EDGE further enables the generation of Markov Decision Process (MDP) models in the PRISM language, representing goal controllers capable of monitoring achievements and computing adaptation plans under uncertainty. However, aligning high-level goal models with formally verifiable goal management controllers remains a core challenge. As systems evolve, the lack of automated, semantics-preserving transformations often leads to divergence between requirements and executable logic, undermining assurance and maintainability. To address this gap, we propose a tool that automatically synthesizes traceable and verifiable MDP models of goal controllers in PRISM from annotated EDGE models. In line with the EDGE desiderata, the tool supports automated, modular, and scalable translation from enriched i* models into PRISM code, reducing manual effort and reinforcing the connection between goal-level intent and runtime adaptation strategies, thus advancing the practical adoption of model-driven engineering in self-adaptive systems.
|
|
|
20
|
-
Wanderson Jean Conceição Silva
-
Maristela: Um Chatbot com Inteligência Artificial Generativa como Suporte ao Ensino no Moodle
-
Orientador : MARISTELA TERTO DE HOLANDA
-
MEMBROS DA BANCA :
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
CELIA GHEDINI RALHA
-
MARISTELA TERTO DE HOLANDA
-
RODRIGO SILVA DURAN
-
Data: 17/12/2025
-
-
Mostrar Resumo
-
O presente trabalho tem como intento introduzir e avaliar o chatbot Maristela, uma solução baseada em Inteligência Artificial Generativa (IAGen) desenvolvida para integração com a plataforma Moodle. Busca-se, com esta proposta, enfrentar as limitações inerentes ao ensino da primeira linguagem de programação e de conceitos iniciais na disciplina de Introdução à Computação em cursos de nível técnico, oferecendo uma experiência de aprendizagem mediada pelo chatbot Maristela.Ochatbot Maristela combina técnicas de e um design centrado no usuário. A ferramenta gera feedback automático, ajustado ao con- texto de cada interação, de modo a promover uma aprendizagem mais personalizada. A arquitetura da solução inclui, ainda, um painel administrativo que viabiliza a governança docente sobre o processo, permitindo a análise de dados como o histórico das interações, além de integrar um sistema de curadoria para as respostas geradas pelo chatbot Maris- tela, fundamental para gerenciar e identificar possíveis alucinações, bem como para fazer a gestão de elementos de gamificação (como badges e níveis). A validação da proposta foi realizada com estudantes do nível técnico da disciplina de Introdução à Informática, mediante o acompanhamento do uso da ferramenta e a coleta de percepções dos próprios discentes e do docente responsável pela disciplina. Com isso, busca-se evidenciar em que medida o Maristela torna o processo de ensino-aprendizagem mais interativo e geren- ciável, atendendo às demandas por um suporte pedagógico imediato e por interações mais engajadoras durante as aulas.
-
Mostrar Abstract
-
This work aims to present the development of the Maristela plugin, a solution based on generative artificial intelligence (GenAI), designed for integration with the Moodle platform. This proposal seeks to address the inherent limitations of teaching the first programming language during the early semesters of undergraduate courses by offering a learning experience supported by a conversational interface mediated by the character Maristela, a chatbot with humanized characteristics. Unlike traditional systems, which are limited to generic responses or simple conditional logic, the Maristela plugin combines natural language processing techniques with user-centered design. The tool generates automatic feedback tailored to the context of each interaction, aiming to foster a more personalized learning experience. The proposal will be validated with students from the University of Brasília enrolled in the introductory programming language course, through monitoring the use of the tool and collecting students’ perceptions. This study seeks to demonstrate how Maristela can make the teaching-learning process more interactive and humanized, meeting the needs of students beginning their programming studies.
|
|
|
Teses |
|
|
1
|
-
EMERSON DE ARAUJO MACEDO
-
Adaptive Patch Grid Strategy for Parallel Protein Folding using Atomic Burials with NAMD
-
Orientador : ALBA CRISTINA MAGALHAES ALVES DE MELO
-
MEMBROS DA BANCA :
-
ALBA CRISTINA MAGALHAES ALVES DE MELO
-
MARIA EMILIA MACHADO TELLES WALTER
-
RICARDO PEZZUOL JACOBI
-
MARIO ANTONIO RIBEIRO DANTAS
-
MÁRCIO DORN
-
Data: 11/03/2025
-
-
Mostrar Resumo
-
O dobramento de proteínas é um processo crucial na biologia molecular para a compreensão da dinâmica estrutural e funcional das proteínas. Simulações de dinâmica molecular são importantes para fornecer insights em nível atômico sobre o processo de dobramento, permitindo a investigação de mudanças estruturais ao longo do tempo. No entanto, estas simulações enfrentam muitos desafios, incluindo elevados custos computacionais e longos tempos de execução, especialmente quando simulam grandes sistemas biomoleculares em escalas de tempo relevantes. Esta Tese de Doutorado visa enfrentar esses desafios investigando estratégias paralelas para reduzir o tempo de execução, mantendo a precisão. Especificamente, este trabalho propõe uma estratégia Adaptive Patch Grid (APG) que ajusta dinamicamente a decomposição espacial ao longo do processo de dobramento para melhorar o equilíbrio de carga e a eficiência em simulações de dinâmica molecular. Além disso, esta tese de doutorado propõe o algoritmo N2HB, que incorpora potenciais de enterramento atômico e ligações de hidrogênio na simulação de dinâmica molecular para melhorar a precisão do modelo de dobramento. Ambas as propostas (APG e N2HB) foram implementadas utilizando a plataforma NAMD, um software de dinâmica molecular paralelo. Novos componentes, como ComputeBurialForce e ComputeHBonds, foram adicionados para permitir o cálculo paralelo das forças de enterramento e de ligação. Pesos de anelamento foram aplicados para otimizar o processo de minimização de energia durante o dobramento. As soluções foram avaliadas por meio de testes extensivos em diversos sistemas de Computação de Alto Desempenho (HPC), mostrando tempos de execução reduzidos e mantendo boa precisão de simulação. Esta Tese de Doutorado contribui para a área ao fornecer estratégias de paralelização que melhoram o desempenho de simulações de dinâmica molecular para enovelamento de proteínas, abordando limitações computacionais e oferecendo métodos para dimensionar essas simulações para sistemas biológicos mais complexos. Palavras Chave em Português: dobramento de proteínas, dinâmica molecular, computação de alto desempenho, enterramento atômico
-
Mostrar Abstract
-
Protein folding is a crucial process in molecular biology for understanding the structural and functional dynamics of proteins. Molecular dynamics simulations are important for providing atomic-level insights into the folding process, enabling the investigation of structural changes over time. However, these simulations face many challenges, including high computational costs and long execution times, especially when simulating large biomolecular systems over relevant time scales. This PhD Thesis aims to address these challenges by investigating parallel strate- gies to reduce execution time while maintaining accuracy. Specifically, this work proposes an Adaptive Patch Grid (APG) strategy that dynamically adjusts spatial decomposition throughout the folding process to improve load balancing and effi- ciency in molecular dynamics simulations. Additionally, this PhD Thesis proposes the N2HB algorithm, which incorporates atomic burial and hydrogen bonding po- tentials into the molecular dynamics simulation to improve the accuracy of the fold- ing model. Both proposals (APG and N2HB) were implemented using the NAMD platform, a parallel molecular dynamics software. New components such as Com- puteBurialForce and ComputeHBonds were added to enable parallel computation of burial and bonding forces. Annealing weights were applied to optimize the en- ergy minimization process during folding. The solutions were evaluated through extensive testing on various High-Performance Computing (HPC) systems, show- ing reduced execution times while maintaining good simulation accuracy. This PhD Thesis contributes to the field by providing parallelization strategies that enhance the performance of molecular dynamics simulations for protein folding, addressing computational limitations and offering methods to scale these simulations for more complex biological systems.
|
|
|
2
|
-
George Oliveira Barros
-
Classificação e Segmentação de Imagens de Lesões Podocitárias: Contribuições para Cenários Multicorantes e Desbalanceados Utilizando Modelos de Aprendizado Profundo
-
Orientador : FLAVIO DE BARROS VIDAL
-
MEMBROS DA BANCA :
-
FLAVIO DE BARROS VIDAL
-
BRUNO LUIGGI MACCHIAVELLO ESPINOZA
-
ROBERTA BARBOSA OLIVEIRA
-
DAVID MENOTTI GOMES
-
RODRIGO DE MELO SOUZA VERAS
-
Data: 24/03/2025
-
-
Mostrar Resumo
-
A podocitopatia é uma condição patológica caracterizada por lesões nos podócitos, células localizadas no glomérulo renal responsáveis pela filtragem do sangue. Essas lesões comprometem a função renal e podem evoluir para condições graves, como glomerulosclerose, proteinúria e nefropatia diabética. O desenvolvimento de técnicas para identificação de lesões podocitárias em imagens de glomérulos apresenta desafios significativos, devido à natureza laboriosa da tarefa e à dificuldade em diferenciar podócitos de outras células. A patologia computacional, com o auxílio de ferramentas computacionais, busca apoiar patologistas na análise dessas imagens. Contudo, técnicas de deep learning requerem grandes volumes de dados balanceados e diversificados para alcançar desempenho apropriado. Este estudo propõe estratégias para aprimorar o desempenho de algoritmos de classificação e segmentação de lesões podocitárias em imagens de glomérulos renais. Os métodos apresentados incorporam diferentes abordagens para melhorar a aprendizagem e a generalização dos modelos. Os resultados experimentais demonstraram que os métodos e modelos propostos impactaram positivamente o processo de análise, em comparação com modelos convencionais.
-
Mostrar Abstract
-
Podocytopathy is a pathological condition characterized by lesions in podocytes, specialized cells in the renal glomerulus responsible for blood filtration. These lesions impair kidney function and can progress to severe conditions such as glomerulosclerosis, proteinuria, and diabetic nephropathy. Detecting podocyte lesions in glomerular images presents significant challenges due to the labor-intensive nature of the task and the difficulty in distinguishing podocytes from other cell types. Computational pathology, supported by computational tools, aims to assist pathologists in analyzing these images. However, deep learning techniques require large, balanced, and diverse datasets to achieve optimal performance. This study proposes strategies to enhance the performance of classification and segmentation algorithms for podocyte lesion detection in renal glomerular images. The presented methods incorporate different approaches to improve model learning and generalization. Experimental results demonstrated that the proposed methods and models positively impacted the analysis process compared to conventional models.
|
|
|
3
|
-
GABRIEL SIQUEIRA RODRIGUES
-
Engineering Multi-Robot Mission Coordination in the Service Robot Domain
-
Orientador : GENAINA NUNES RODRIGUES
-
MEMBROS DA BANCA :
-
GENAINA NUNES RODRIGUES
-
CELIA GHEDINI RALHA
-
PAULO HENRIQUE MAIA
-
ELISA YUMI NAKAGAWA
-
MARCO AUTILI
-
Data: 24/03/2025
-
-
Mostrar Resumo
-
Os robôs transformaram indústrias como a manufatura automotiva ao assumirem tarefas tediosas, repetitivas e perigosas dentro de ambientes fabris. Tradicionalmente, esses robôs são grandes máquinas operando em ambientes altamente controlados. No entanto, nos últimos anos, houve um crescimento significativo no desenvolvimento de robôs móveis projetados para atuar em espaços compartilhados com humanos, incluindo hospitais, hotéis e restaurantes. Conhecidos como robôs de serviço, esses sistemas são capazes de navegar em ambientes centrados em humanos e realizar tarefas como manipulação de objetos e inspeção do ambiente usando câmeras e sensores. Para explorar plenamente o potencial dos robôs de serviço em contextos sociais, é essencial estabelecer mecanismos eficazes de coordenação. No entanto, orquestrar múltiplos robôs em espaços compartilhados com humanos apresenta desafios substanciais de engenharia devido à natureza aberta desses ambientes e às incertezas inerentes que introduzem. Além disso, embora a garantia de qualidade seja crucial para esses sistemas, a simulação de sua lógica de coordenação é particularmente complexa devido à forte dependência de fatores ambientais. Esta tese avança o estado da arte na engenharia de sistemas multi-robô autônomos (MRS) no domínio dos robôs de serviço, com foco especial em arquitetura e simulação. Ela propõe soluções arquiteturais inovadoras para gerenciar a complexidade e a incerteza presentes em ambientes dinâmicos. Para isso, esta pesquisa introduz uma nova arquitetura, chamada MissionControl, projetada para facilitar o desenvolvimento e a coordenação de missões MRS. O MissionControl reduz a complexidade do sistema ao definir um modelo de componentes que estrutura o sistema em componentes encapsulados e reutilizáveis, com responsabilidades bem definidas. Além disso, ele integra modelos de componentes e de tempo de execução com processos de coordenação, priorizando modificabilidade, integrabilidade e autonomia. Uma implementação prototípica do MissionControl foi desenvolvida para comunicação entre robôs e ROS para execução de tarefas. A arquitetura foi avaliada por meio de experimentos controlados no simulador MORSE e inspeções sistemáticas baseadas em diretrizes de análise de arquitetura de software. Os resultados experimentais indicam uma melhoria nas taxas de sucesso das missões e uma redução nas falhas causadas por esgotamento de recursos, mesmo sob condições de incerteza. Por fim, esta tese contribui com um design de simulação leve chamado HMR Sim, projetado para avaliar a lógica de coordenação. O framework de simulação proposto é eficiente em termos de recursos e suporta a execução de testes por meio de uma linguagem específica de domínio (DSL), permitindo a validação sistemática dos comportamentos dos sistemas multi-robô.
-
Mostrar Abstract
-
Robots have transformed industries such as automotive manufacturing by taking over tedious, repetitive, and hazardous tasks within factory settings. Traditionally, these robots are large machines operating in highly controlled environments. However, in recent years, there has been a significant rise in the development of mobile robots designed to assist in human-shared spaces, including hospitals, hotels, and restaurants. Known as service robots, these systems are capable of navigating human-centric environments and performing tasks such as object manipulation and environmental inspection using cameras and sensors. To fully leverage the potential of service robots in social settings, effective coordination mechanisms must be established. However, orchestrating multiple robots in shared human spaces presents substantial engineering challenges due to the open-ended nature of these environments and the inherent uncertainties they introduce. Furthermore, while quality assurance is crucial for such systems, simulating their coordination logic is particularly complex due to its strong dependency on environmental factors. This thesis advances the state-of-the-art in engineering autonomous multi-robot systems (MRS) in the service robot domain, particularly on architecture and simulation. It proposes novel architectural solutions to manage the complexity and uncertainty inherent in dynamic environments. To this end, this research introduces a new architecture, MissionControl, designed to streamline the development and coordination of MRS missions. MissionControl mitigates system complexity by defining a component model that structures the system into encapsulated, reusable components with clear responsibilities. Additionally, it integrates both component and runtime models with coordination processes, prioritizing modifiability, integrability, and autonomy. A prototype implementation of MissionControl was developed for inter-robot communication and ROS for task execution. The architecture was evaluated through controlled experiments in the MORSE simulator and systematic inspections based on software architecture analysis guidelines. Experimental results indicate an improvement in mission success rates and a reduction in failures due to resource depletion, even under uncertain conditions. Lastly, this thesis contributes a lightweight simulation design called HMR Sim tailored for evaluating coordination logic. The proposed simulation framework is resource-efficient and supports test execution using a domain-specific language (DSL), enabling systematic validation of MRS behaviors.
|
|
|
4
|
-
Breno Gustavo Soares da Costa
-
Uma Arquitetura Autoadaptável para a Implantação de Observabilidade em Fog Computing
-
Orientador : ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
MEMBROS DA BANCA :
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
ALBA CRISTINA MAGALHAES ALVES DE MELO
-
CELIA GHEDINI RALHA
-
EDSON NORBERTO CACERES
-
EUGENE FRANCIS VINOD REBELLO
-
Data: 28/03/2025
-
-
Mostrar Resumo
-
Fog Computing é um paradigma computacional que estende a Cloud Computing, fornecendo recursos de computação mais próximos dos usuários na borda da rede. O paradigma Fog Computing se caracteriza por uma infraestrutura distribuída e heterogênea, o que aumenta a complexidade do gerenciamento quando comparada à Cloud Computing. A orquestração de serviços e recursos é fundamental nesse contexto, lidando com a dinamicidade da infraestrutura e garantindo o cumprimento dos Acordos de Nível de Serviço. A gestão da observabilidade é uma funcionalidade crucial para a orquestração, coletando informações sobre o status dos serviços, dos dispositivos e dos links de comunicação para permitir uma tomada de decisão rápida e eficaz. No entanto, a literatura sobre orquestração em Fog Computing, frequentemente, assume a existência de uma solução de gestão da observabilidade sem apresentar métodos de implementação, ou abordar os desafios. Adicionalmente, soluções de gestão da observabilidade existentes para Cloud Computing não são adequadas para ambientes Fog devido às suas particularidades. Há uma carência de trabalhos que abordem o aumento da observabilidade em Fog e o desafio de gerenciar diversos fluxos de dados heterogêneos em um ambiente com recursos restritos. Para suprir essas lacunas, esta tese propõe FogObserver, uma arquitetura de referência para sistemas de gestão da observabilidade em Fog, que lida com a coleta, o processamento e o armazenamento de dados de observabilidade. Ela gerencia fluxos de dados heterogêneos dos domínios de instrumentação (métricas, logs e traces) e utiliza um framework autoadaptável, capaz de reconhecer dinamicamente mudanças relevantes no ambiente e selecionar a melhor reação. A avaliação da proposta foi realizada por meio de um estudo de caso em um cenário real de cidades inteligentes. Os resultados demonstraram que é possível aumentar a observabilidade em Fog Computing de forma eficaz, adicionando um overhead baixo à infraestrutura e aos canais de comunicação. Por meio de estratégias customizadas para o contexto da aplicação, conseguiu-se uma redução de 80% no volume de dados de observabilidade, transmitidos dos dispositivos IoT para Fog, e o volume resultante representou menos de 1% do volume de dados transmitidos pela aplicação quando em operação.
-
Mostrar Abstract
-
Fog Computing is a computational paradigm that extends Cloud Computing, providing computing resources closer to users at the edge of the network. The Fog Computing paradigm is characterized by a distributed and heterogeneous infrastructure, which increases management complexity compared to Cloud Computing. The orchestration of services and resources is fundamental in this context, dealing with the dynamic nature of the infrastructure and ensuring compliance with Service Level Agreements. Observability management is a crucial functionality for orchestration, collecting information about the status of services, devices, and links of communication to allow quick and effective decision making. However, the literature on orchestration in Fog Computing often assumes the existence of an observability management solution without presenting implementation methods or addressing the challenges. Additionally, existing observability management solutions for Cloud Computing are not suitable for Fog environments due to their specificities. There is a lack of work addressing the increase in observability in Fog and the challenge of managing various heterogeneous data flows in an environment with restricted resources. To fill these gaps, this thesis proposes FogObserver, a reference architecture for observability management systems in Fog, which deals with the collection, processing, and storage of observability data. It manages heterogeneous data flows from the instrumentation domains (metrics, logs, and traces) and uses a framework that is self-adaptive, capable of dynamically recognizing relevant changes in the environment and selecting the best reaction. The proposal was evaluated through a case study in a real smart city scenario. The results demonstrated that it is possible to effectively increase observability in Fog Computing by adding a low overhead to the infrastructure and communication channels. Through customized strategies for the application context, a 80% reduction in the volume of observability data transmitted from IoT devices to Fog, and the resulting volume represented less than 1% of the data volume transmitted by the application while in operation.
|
|
|
5
|
-
João Bachiega Junior
-
Uma Proposta para a Descoberta e para a Alocação de Recursos Computacionais em Fog Computing
-
Orientador : ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
MEMBROS DA BANCA :
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
ALFREDO GOLDMAN VEL LEJBMAN
-
CLAUDIA NALON
-
DANIEL HENRIQUES MOREIRA
-
LUCIA MARIA DE ASSUMPCAO DRUMMOND
-
MARISTELA TERTO DE HOLANDA
-
Data: 28/03/2025
-
-
Mostrar Resumo
-
A fog computing (computação em névoa) é um paradigma que permite o provisionamento de recursos e serviços computacionais na borda da rede, mais próximo dos dispositivos finais e usuários, com menor latência, complementando a cloud computing (computação em nuvem). A heterogeneidade e o grande número de dispositivos são desafios a serem superados pelo gerenciamento de recursos neste ambiente, que tem o objetivo de garantir que os recursos necessários estejam disponíveis no momento certo e no local adequado para que as tarefas sejam concluídas com sucesso. Assim sendo, entre as principais funcionalidades do gerenciamento de recursos estão a etapa de Descoberta que visa encontrar os recursos adequados; e a etapa de Alocação que objetiva selecionar, reservar e garantir o uso dos melhores recursos para a execução de uma dada carga de trabalho. Contudo, observou-se que as soluções propostas até o momento na literatura são incompletas, pois não consideram concomitantemente as perspectivas do usuário e do provedor, uma vez que elas possuem objetivos diferentes. Além disso, as soluções da literatura não levam em consideração que um gerenciamento de recursos eficiente em ambiente de fog computing deve considerar as capacidades computacionais e as características comportamentais e, portanto, devem ser tratados de forma diferenciada. Assim sendo, nesta tese é apresentada uma proposta para as etapas de Descoberta e Alocação de recursos que fazem parte do serviço de gerenciamento em um ambiente de fog computing. A proposta considera as capacidades computacionais e as características comportamentais, a partir das perspectivas do provedor e do usuário final. A validação das propostas foi realizada em ambientes reais e simulados. A proposta de descoberta de recursos trouxe resultados até 33% melhores quando comparada com outras existentes na literatura em relação ao tempo de execução. Já a proposta de alocação de recursos em fog computing foi capaz de gerar resultados até 47% melhores em relação ao custo.
-
Mostrar Abstract
-
Fog computing is a paradigm that allows the provisioning of computing resources and services at the edge of the network, closer to end devices and users, with lower latency, complementing cloud computing. Heterogeneity and the large number of devices are challenges to be overcome by resource management in this environment, which aims to ensure that the necessary resources are available at the right time and in the right place so that tasks are completed successfully. Therefore, among the main functionalities of resource management are the Discovery stage, which aims to find the appropriate resources; and the Allocation stage, which aims to select, reserve, and ensure the use of the best resources for the execution of a given workload. However, it was observed that the solutions proposed so far in the literature are incomplete, as they do not simultaneously consider the perspectives of the user and the provider, since they have different objectives. Furthermore, the solutions in the literature do not take into account that efficient resource management in a fog computing environment must consider computational capabilities and behavioral characteristics and, therefore, must be treated differently. Therefore, this thesis presents a proposal for the Resource Discovery and Allocation steps that are part of the management service in a fog computing environment. The proposal considers computational capabilities and behavioral characteristics, from the perspectives of the provider and the end user. The proposals were validated in real and simulated environments. The resource discovery proposal brought results up to 33% better when compared to others in the literature concerning execution time. The resource allocation proposal in fog computing generated results up to 47% better concerning cost.
|
|
|
6
|
-
Ranyelson Neres Carvalho
-
Desenvolvimento de um Mecanismo Integrado para a Detecção e Mitigação de Ataques DDoS em Redes Definidas por Software
-
Orientador : JACIR LUIZ BORDIM
-
MEMBROS DA BANCA :
-
ANTONIO JORGE GOMES ABELÉM
-
EDUARDO ADILIO PELINSON ALCHIERI
-
JACIR LUIZ BORDIM
-
JO UEYAMA
-
JOAO JOSE COSTA GONDIM
-
Data: 07/05/2025
-
-
Mostrar Resumo
-
As redes definidas por software (do inglês, Software Defined Networking - SDN) são arquiteturas de redes que enfatizam a separação entre o plano de controle e o plano de dados, proporcionando uma série de benefícios, como o gerenciamento centralizado, a flexibilidade e a programabilidade da infraestrutura de rede. Apesar dos benefícios oferecidos pela arquitetura SDN, do ponto de vista da segurança, essa arquitetura introduziu novas vulnerabilidades devido à comunicação necessária entre esses planos, em virtude da separação deles. Os ataques distribuídos de negação de serviço (do inglês, Distributed Denial of Service - DDoS) representam um desafio significativo para esse tipo de rede, já que, nesta arquitetura, o controlador atua como um ponto central de controle e decisão, sendo responsável por gerenciar o tráfego e a configuração da rede. Assim, ele se torna um alvo comum para os ataques DDoS, já que sua paralisação, em função do volume massivo de tráfego malicioso proveniente desses ataques, resultará na exaustão da capacidade e processamento, levando à sua indisponibilidade e comprometendo a operação de toda a rede. As soluções presentes no estado da arte apresentaram diversas estratégias para reduzir os impactos dos ataques DDoS. Porém, ainda permanecem algumas lacunas, como a centralização das ações de detecção e mitigação no plano de controle, causando atrasos no processo para confirmar qualquer mudança no comportamento do tráfego associada a esses ataques e o aumento do volume de mensagens de controle encaminhadas ao controlador para realizar a identificação e a contenção desses ataques a rede. Além disso, muitas das estratégias desenvolvidas pelas soluções acabam penalizando uma parte significativa do tráfego legítimo, provocando bloqueios de forma indiscriminada. Este trabalho propõe um mecanismo de detecção e mitigação denominado DataControl-ML, que visa suprir essas lacunas. O mecanismo está organizado em dois procedimentos: (i) detecção e mitigação no plano de dados; e (ii) compartilhamento de informações globais por meio do plano de controle. O primeiro procedimento concentra-se na implementação de técnicas para identificar o tráfego malicioso próximo aos pontos de ingresso na rede, priorizar o tráfego de clientes com níveis de confiabilidade aceitáveis (legítimos) e bloquear (descartar) o tráfego daqueles com baixo valor de confiança (maliciosos), com base em estatísticas geradas pelos switches programáveis. O segundo procedimento visa o compartilhamento de informações globais, organizadas em ações de controle que incluem o bloqueio, a permissão sem prioridade associada ou a priorização dos clientes, determinadas a partir do estabelecimento de uma confiança global, por meio do controlador para o envio aos dispositivos de encaminhamento, promovendo uma abordagem híbrida (plano de dados e controle) por parte do mecanismo proposto, criando uma visão única da rede e um sistema de segurança mais abrangente. Os resultados experimentais obtidos mostraram que o DataControl-ML reduz cerca de 52,18% o tempo necessário para a confirmação de uma fonte maliciosa, responsável por gerar os ataques DDoS, quando comparado a outro mecanismo do estado da arte. Além disso, o mecanismo proposto diminui o volume de mensagens de controle enviadas ao controlador, o tempo de convergência para que os dispositivos de encaminhamento tenham informações sincronizadas e alcança uma acurácia de detecção e mitigação superior a 98%, reduzindo os impactos causados por esses ataques.
-
Mostrar Abstract
-
The software-defined networks (SDN) are network architectures that emphasize the separation of the control plane from the data plane, providing a series of benefits such as centralized management, flexibility and programmability of the network infrastructure. Despite the benefits offered by the SDN architecture, from a security point of view, this architecture introduced new vulnerabilities due to the communication necessary between these planes due to their separation. DDoS attacks (Distributed Denial of Service) represent a significant challenge for this type of network, as in this architecture, packet forwarding is based on matching the available flow table entries of the forwarding device. If there is no match in the flow table, switch encapsulates the packet header information and sends it to the controller, which returns this information requesting that a new corresponding flow entry be added to switch to for the packet to be transmitted to the destination. Attackers take advantage of this mode of operation to overload the controller and switch by sending a massive volume of malicious traffic (connection requests), which results in new entries in the switch flow table causing the memory overhead of the forwarding device and the capacity processing of the controller. State-of-the-art solutions present several strategies to reduce the impact of DDoS attacks. However, some gaps still remain, such as the centralization of actions (detection and mitigation) in the control plane, causing delays and overloads, and the indiscriminate blocking of traffic that ends up penalizing legitimate traffic. This work proposes the development of a detection and mitigation mechanism that enables faster actions to contain the flow of malicious traffic, through traffic mitigation and prioritization techniques that avoid penalizing legitimate participants. The proposal is organized into two stages: (i) detection and mitigation in the data plane; and (ii) sharing of information in the control plane. The first stage aims to identify malicious traffic close to network entry points and prioritize traffic from participants with acceptable (legitimate) reliability levels, through statistics generated by switches. During the development of this stage, some preliminary results were obtained, which demonstrated the ability of the proposed mechanism to reduce the impacts caused by a DDoS attack. The second stage (under development) will consist of sharing information in the control plane with the other switches, to promote a hybrid approach (data and control plane) by the solution, creating a single view of the network. This approach will therefore enable local decision-making based on shared global information, making all devices active equipment. The tests and metrics to be used to validate the proposal will be guided by the methods present in the literature, with the purpose of allowing comparisons.
|
|
|
7
|
-
Francisco Handrick Tomaz da Costa
-
On the Effectiveness of the Mining Android Sandbox Approach for Malware Detection
-
Orientador : RODRIGO BONIFACIO DE ALMEIDA
-
MEMBROS DA BANCA :
-
RODRIGO BONIFACIO DE ALMEIDA
-
GENAINA NUNES RODRIGUES
-
VANDER RAMOS ALVES
-
BRENO ALEXANDRO FERREIRA DE MIRANDA
-
EDUARDO LUZEIRO FEITOSA
-
Data: 12/05/2025
-
-
Mostrar Resumo
-
Devido à popularidade da plataforma Android, aliada às facilidades em aplicar técnicas de re-engenharia em aplicativos Android (apps), agentes maliciosos têm se dedicado a explorar formas de ataques que visam monetizar a partir de aplicativos legítimos e violar aspectos de privacidade dos usuários. Esse cenário atraiu a atenção de pesquisadores para o desenvolvimento de técnicas que possibilitam mitigar algumas falhas de segurança ou estratégias de ataque para aplicativos Android. Uma recente iniciativa foi proposta por Jamrozik et al. e introduziu o conceito de sandbox mining. Nessa proposta, em uma primeira fase descrita como mineração, ferramentas geradoras de testes são utilizadas para explorar o comportamento de aplicativos Android, a partir de chamadas à APIs sensíveis. Em um segundo momento, a proposta aplica um sandbox que limita qualquer comportamento diferente daquele descoberto durante a primeira fase de mineração. Com a solução, chamadas indevidas a APIs sensíveis em um segundo momento, são descobertos na fase de mineração, e são bloqueados por completo, assegurando maior segurança aos usuários desses aplicativos. Posteriormente, Bao et al. complementou o trabalho de Jamrozik et al. avaliando a efetividade da proposta na detecção de comportamentos maliciosos, como também explorou a capacidade exploratória de diferentes ferramentas de testes para mineração de sandboxes. Entretanto, nessa pesquisa, os autores não se aprofundaram na contribuição das análises estáticas e dinâmicas para a mineração de sandbox, além de apresentar seus resultados baseado em um dataset limitado, com reduzida representatividade de familias de malware. Portanto, nessa Tese o nosso objetivo inicial foi o de melhor entender a proposta de mineração em sandobox, explorando os papeis das análises estática e dinâmicas no contexto da solução. Após documentar a contribuição de ambas análises na mineração de sandbox, em um segundo estudo nos propomos a investigar, se a proposta apresentava a mesma eficiência em termos de detecção de malware, quando submetido a um dataset mais abrangente e diversificado, que os de trabalhos anteriores. Os resultados revelaram que a precisão da solução na identificação de aplicações maliciosas caiu significante: F1 caiu de 0.90 em estudos anteriores, para 0.54 no dataset mais abrangente. Após uma avaliação, descobrimos que a baixa eficácia foi motivados pela presente de amostras pertencentes a específicas famílias de malware, que revelaram uma fragilidade na proposta. Tal fato nos motivou a explorar uma solução complementar, que fosse capaz de suprimir a deficiêcia apontadas por esse estudo. Assim, em um terceiro estudo apresentamos uma proposta que explorou a análise de fluxo de rede com o auxilio de técnicas de Machine Learning (ML). O método se mostrou mais eficiente na classificação de malwares, quando comparado com a técninca de mineração de sandbox, atingindo um F1 de 0.85, quando aplicado ao dataset diversificado. O estudo apontou ainda que as famílias de malware que tiveram baixa taxas de detecção na solução de mineração de sandbox, tiveram suas atividades maliciosas melhor apontadas pela análise de fluxo de rede, com o auxilio de modelos de ML.
-
Mostrar Abstract
-
Due to the widespread popularity of the Android platform and the relative ease of applying reverse-engineering techniques to Android apps, malicious actors often exploit vulnerabilities to monetize legitimate applications and compromise user privacy. This growing threat has prompted researchers to develop new techniques to mitigate security flaws and combat attack strategies targeting Android applications. A recent initiative proposed by Jamrozik et al. introduced the concept of sandbox mining. In this approach, a first phase called mining employs test generation tools to explore Android application behavior by analyzing calls to sensitive APIs. In a second phase, a sandbox is applied to restrict any behavior that deviates from what was observed during the mining phase. This solution detects inappropriate calls to sensitive APIs during the secure mining phase and subsequently blocks them entirely, enhancing security for users of these applications. Later, Bao et al. expanded on Jamrozik et al.’s work by evaluating the proposal’s effectiveness in detecting malicious behavior and assessing the exploratory capabilities of different testing tools for sandbox mining. However, their study did not thoroughly investigate the contributions of static and dynamic analysis to sandbox mining. Additionally, their findings were based on a limited dataset with insufficient representation of malware families. In this thesis, our initial objective was to evaluate the sandbox mining proposal by examining the roles of static and dynamic analysis within its framework. After documenting the contributions of both approaches, we conducted a second study to assess whether the solution maintained similar malware detection efficiency when applied to a more comprehensive and diverse dataset than those used in prior work. The results showed a significant decline in detection accuracy: F1-score dropped from 0.90 (in previous studies) to 0.54 on the expanded dataset. Upon further analysis, we determined that this reduced performance stemmed from the presence of samples belonging to specific malware families, exposing a critical weakness in the approach. This finding motivated us to explore a complementary solution capable of addressing the identified limitation. In a third study, we proposed a network flow analysis approach enhanced by Machine Learning (ML) techniques. This method demonstrated a better efficiency in malware classification compared to the sandbox mining technique, achieving an F1-score of 0.85 on the diversified dataset. Notably, the study revealed that malware families with low detection rates under sandbox mining were more effectively identified through network flow analysis, leveraging ML models to detect malicious activities.
|
|
|
8
|
-
Harley Vera Olivera
-
Otimização de Esquemas NoSQL Orientado a Documentos: Avaliação Baseada em Métricas e Algoritmo VNS
-
Orientador : MARISTELA TERTO DE HOLANDA
-
MEMBROS DA BANCA :
-
MARISTELA TERTO DE HOLANDA
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
EDNA DIAS CANEDO
-
DANIEL CARDOSO MORAES DE OLIVEIRA
-
RONALDO DOS SANTOS MELLO
-
Data: 30/05/2025
-
-
Mostrar Resumo
-
O problema da otimização de esquemas em bancos de dados ganhou relevância com a migração de cargas de trabalho para a nuvem, um processo que expôs ineficiências nas configurações e esquemas tradicionais. Em bancos de dados NoSQL orientados a documentos, a definição do esquema influencia diretamente o armazenamento, a velocidade das consultas e a escalabilidade do sistema. No entanto, determinar a configuração ideal é um desafio devido ao elevado número de combinações possíveis entre coleções e suas relações. Atualmente, os esquemas costumam ser avaliados pelo tempo de resposta das operações CRUD (criar, ler, atualizar e excluir), o que dificulta a análise de todas as alternativas possíveis por causa do alto custo computacional e da complexidade envolvida. Neste trabalho, implementou-se o algoritmo metaheurístico VNS (Variable Neighborhood Search) para identificar soluções eficientes a partir de um conjunto de consultas e uma configuração inicial. Para tanto, definiram-se métricas de avaliação —completude, padrões de acesso e redundância— que quantificam a qualidade dos esquemas, considerando os relacionamentos referenciados e aninhados com uma ponderação específica. Integradas como função objetivo no algoritmo, essas métricas possibilitam uma avaliação mais ampla dos esquemas, diminuindo a dependência exclusiva do tempo de resposta das operações CRUD e focando em aspectos estruturais. Operações de perturbação específicas foram projetadas para explorar eficientemente o espaço de busca, diversificando as soluções e prevenindo a convergência para mínimos locais. Assim, o algoritmo analisa diferentes estruturas, otimiza a complexidade do esquema e garante suporte completo às consultas definidas, alcançando uma solução eficaz no nível lógico de modelagem.
-
Mostrar Abstract
-
Data modeling for databases is an essential step in the application development process. Since databases began moving to the cloud, best practices such as configuration settings, schema design, or data access not being correctly applied have made data modeling a critically important issue. But, since a given problem to be modeled has many candidate models, how can we ensure that the best or most optimal model is found? For this reason, this work proposes a methodology to find the most optimal data model for document-oriented NoSQL databases. Meta-heuristic algorithms and model evaluation metrics will be evaluated to achieve the objective. As a result, it is expected to go through the most significant number of solution candidates in the search space to guarantee the best or most optimal model.
|
|
|
9
|
-
NATAN DE SOUZA RODRIGUES
-
Framework Híbrido com Aprendizado de Máquina Profundo para Desambiguação de Nomes de Autores
-
Orientador : CELIA GHEDINI RALHA
-
MEMBROS DA BANCA :
-
CELIA GHEDINI RALHA
-
LI WEIGANG
-
MARISTELA TERTO DE HOLANDA
-
MARCOS ANDRE GONÇALVES
-
MARLO VIEIRA DOS SANTOS E SOUZA
-
Data: 11/08/2025
-
-
Mostrar Resumo
-
A desambiguação de nomes de autores (Author Name Disambiguation – AND) é uma tarefa desafiadora em repositórios bibliográficos digitais, marcada por ambiguidade nominal, variações linguísticas e metadados incompletos. Esta tese propõe o framework híbrido ADAN (Automatic Disambiguation Author Name), o qual combina aprendizado de máquina profundo com um algoritmo de clusterização hierárquica aglomerativa aprimorada por grafos (Graph-enhanced Hierarchical Agglomerative Clustering - GHAC). Utiliza técnicas de Processamento de Linguagem Natural (PLN) com modelos baseados em transformers como SciBERT e MiniLM, e Redes Convolucionais de Grafos (RCG). A arquitetura do ADAN é organizada em quatro camadas: entrada e pré-processamento, extração de embeddings e construção da rede heterogênea, aprendizado com RCG e clusterização com GHAC. A camada de entrada conta com uma interface gráfica de usuário (Graph User Interface - GUI) que permite carregar os dados, configurar os parâmetros do modelo e visualizar os resultados da tarefa de AND. O framework ADAN permite configurar os parâmetros de profundidade e o número de épocas de treinamento da RCG, bem como o modelo de PLN a ser utilizado (e.g., Word2Vec, SciBERT e MiniLM), possibilitando adaptação a diferentes bases e níveis de complexidade estrutural e semântica. Os experimentos foram realizados utilizando três conjuntos de dados comuns na literatura: AMiner-12, DBLP e LAGOS-AND. Em cenários com metadados limitados, tal como o AMiner-12, o ADAN obteve pureza média de clusters (Average Cluster Purity - ACP) de 0,908 e K-Metric de 0,898, superando trabalhos de referência em até 40,3% e 20,2%, respectivamente. No DBLP, atingiu pF1 de 0,878 e K-Metric de 0,976, com ganhos de até 33,2% e 29,4%. Utilizando o LAGOS-AND, os resultados apresentam B-cubed F1 de 0,908, superando 20,7% das abordagens anteriores com o mesmo conjunto de dados. Os resultados indicam que o framework ADAN oferece uma solução eficaz e adaptável para a tarefa de AND, apresentando desempenho consistente em cenários com alta ambiguidade e diversidade estrutural.
-
Mostrar Abstract
-
Author Name Disambiguation (AND) is a challenging task in digital bibliographic repositories, marked by name ambiguity, linguistic variations, and incomplete metadata. This thesis proposes the hybrid framework ADAN (Automatic Disambiguation Author Name), which combines deep machine learning with a graph-enhanced hierarchical agglomerative clustering algorithm (GHAC). It integrates Natural Language Processing (NLP) techniques using transformer-based models such as SciBERT and MiniLM, along with Graph Convolutional Networks (GCNs). ADAN's architecture is organized into four layers: input and preprocessing, embedding extraction and heterogeneous network construction, learning with GCNs, and clustering with GHAC. The input layer includes a Graphical User Interface (GUI) that allows users to upload data, configure model parameters, and visualize the results of the AND task. The ADAN framework enables customization of GCN depth, the number of training epochs, and the choice of NLP model (e.g., Word2vec, SciBERT, MiniLM), allowing for adaptation to datasets with different levels of structural and semantic complexity. Experiments were conducted using three commonly used datasets in the literature: AMiner-12, DBLP, and LAGOS-AND. In scenarios with limited metadata, such as AMiner-12, ADAN achieved an Average Cluster Purity (ACP) of 0.908 and a K-Metric of 0.898, outperforming baseline methods by up to 40.3% and 20.2%, respectively. On the DBLP dataset, it achieved a pF1 score of 0.878 and a K-Metric of 0.976, with improvements of up to 33.2% and 29.4%, respectively. Using LAGOS-AND, ADAN achieved a B-cubed F1 of 0.908, outperforming previous approaches by up to 20.7%. These results indicate that the ADAN framework offers an effective and adaptable solution for the AND task, showing consistent performance in scenarios with high ambiguity and structural diversity.
|
|
|
10
|
-
Lindeberg Pessoa Leite
-
A hierarchical domain adaptation method in neural language models - with application to taxonomy-aware linear B-cell epitope prediction
-
Orientador : TEOFILO EMIDIO DE CAMPOS
-
MEMBROS DA BANCA :
-
TEOFILO EMIDIO DE CAMPOS
-
LUIS PAULO FAINA GARCIA
-
THIAGO DE PAULO FALEIROS
-
CRISTIANO LEITE DE CASTRO
-
JOÃO LUÍS REIS CUNHA
-
Data: 28/08/2025
-
-
Mostrar Resumo
-
Considerando a Taxonomia A adaptação de domínio tem como objetivo permitir que classificadores treinados em um domínio de origem tenham um bom desempenho em um domínio-alvo. Tradicionalmente, métodos de adaptação consideram um domínio de origem único, no qual todas as observações assumem implicitamente o mesmo nível de relacionamento com o domínio-alvo. Entretanto, em cenários reais, a adaptação de domínio frequentemente envolve domínios de origem com estruturas internas, muitas vezes hierárquicas. Exemplos incluem ramificações filogenéticas em conjuntos de dados biológicos, evolução das línguas, estruturas temáticas interconectadas na literatura científica, identificação de linguagem ofensiva e verificação de fatos. Uma estratégia comum, porém simplista, é mesclar fontes heterogêneas em um único domínio. Essa abordagem negligencia as relações distintas entre fontes individuais e o domínio-alvo, além de introduzir ruídos que prejudicam a transferência. Criar um conjunto de dados unificado para uma coleção heterogênea pode eliminar informações críticas, resultando em efeitos negativos de transferência. Embora a adaptação de domínio com múltiplas fontes seja amplamente estudada, pouca pesquisa aborda explicitamente adaptações que consideram estruturas hierárquicas internas nos domínios de origem. Esta tese investiga as relações hierárquicas entre os domínios de origem por meio de uma adaptação de domínio hierárquica, que captura explicitamente dependências hierárquicas para aprimorar a generalização e precisão das predições no nível do domínio-alvo. O método proposto emprega uma Hierarchical Weighted Cross-Entropy Loss, que ajusta dinamicamente a contribuição relativa dos diferentes níveis hierárquicos, e corrige desbalanceamentos entre classes. Essa estratégia permite uma transferência de conhecimento mais robusta e adaptável, especialmente adequada para cenários com poucos dados rotulados e estruturas hierárquicas de vários níveis. Para contextualizar esta proposta, a tese revisa inicialmente a evolução dos modelos de linguagem: desde n-gramas e modelos ocultos de Markov (HMMs), passando por redes neurais recorrentes (RNNs, LSTMs e GRUs), até arquiteturas modernas baseadas em atenção, como Transformers. O surgimento de modelos pré-treinados, como BERT, GPT e RoBERTa, revolucionou o processamento de linguagem natural, enquanto sua adaptação para sequências biológicas resultou em modelos como ESM, ProtBERT, ProtT5, ProteinBERT e Ankh. Apesar dos avanços, persistem limitações relevantes, como o viés nos dados, especialmente em cenários com escassez de dados rotulados no domínio-alvo. Essas limitações reforçam a necessidade de métodos robustos de adaptação de domínio, particularmente em contextos com vários níveis hierárquicos. Este trabalho também apresenta conceitos fundamentais relacionados à adaptação de domínio, destacando métodos tradicionais baseados em discrepância, métodos adversariais, métodos de reconstrução e abordagens de normalização. Cada técnica busca reduzir a diferença entre domínios com graus variados de robustez, estabilidade e aplicabilidade. Adicionalmente, são abordados os regimes de supervisão, incluindo adaptação supervisionada, semi-supervisionada e não supervisionada. A tese também discute a adaptação de múltiplas fontes, destacando tanto benefícios quanto desafios dessa abordagem, como transferência negativa e maior custo computacional. Finalmente, é aprofundada a adaptação de domínio hierárquica, que aproveita explicitamente estruturas hierárquicas dos dados para realizar adaptações considerando o grau de importância de cada nível superior. Para validar a proposta, foi realizado um estudo de caso focado na predição de epítopos de células B lineares (LBCE), uma tarefa crítica na imunoinformática devido à importância de epítopos em diagnósticos, vacinas e imunoterapias. Inicialmente, uma abordagem de adaptação de domínio de fonte única foi aplicada à tarefa de predição de epítopos, validando a capacidade de transferência filogenética. Em seguida, a solução foi generalizada por meio do método de adaptação de domínio hierárquica proposto, que ajusta dinamicamente a contribuição dos exemplos de treinamento com base na estrutura hierarquica dos dados. Os resultados experimentais demonstraram ganhos de desempenho na tarefa de predição de epítopos lineares de células B. Na configuração de adaptação de domínio de fonte única (Single-Source Domain Adaptation), o método proposto EpitopeTransfer superou consistentemente três métodos estado da arte — BepiPred 3.0, EpiDope e EpitopeVec — além de duas baselines internas. A avaliação foi conduzida em um conjunto de 20 domínios-alvo, utilizando oito métricas distintas: AUC, F1-score, coeficiente de correlação de Matthews (MCC), acurácia balanceada (BACC), valor preditivo positivo (PPV), valor preditivo negativo (NPV), sensibilidade e especificidade. O EpitopeTransfer obteve AUC média de 0,690 ± 0,029, F1-score de 0,592 ± 0,060 e MCC de 0,258 ± 0,052, demonstrando superioridade substancial em relação aos concorrentes. Além disso, atingiu sensibilidade de 0,697 ± 0,068 e especificidade de 0,549 ± 0,072, evidenciando sua capacidade de generalizar tanto para regiões epítopos quanto não epítopos. Adicionalmente, ao aplicar a estratégia proposta de adaptação de domínio hierárquica (Hierarchical Domain Adaptation), observou-se desempenho consistentemente superior ao da baseline em 17 domínios-alvo distintos. O modelo generalizado alcançou AUC média de 0,698 ± 0,027, superando os 0,625 ± 0,033 da baseline. Também apresentou ganhos em F1-score (0,549 ± 0,053 vs. 0,454 ± 0,056) e MCC (0,249 ± 0,044 vs. 0,154 ± 0,039).
-
Mostrar Abstract
-
Identification of linear B-cell epitopes (LBCEs) plays a key role in the development of diagnostic tests and vaccines against infectious diseases. However, experimental methods used to determine LBCEs are costly and time-consuming. This has motivated the development of computational methods for the rapid identification of LBCEs based on protein sequence data. To date, multiple machine learning approaches have been developed to address this task. These methods rely on having access to a sufficient amount of epitope data either for training generalist predictive models - which may not generalise well to specific pathogens - or to develop organism-specific predictors, which may suffer from data scarcity, particularly for less studied pathogens. These methods face even greater difficulties when dealing with emerging pathogens due to the lack of samples in current data bases. This thesis investigates the potential of improving the performance of the identification of LBCEs by applying transfer-learning from higher to lower taxonomic levels using taxon-specific pre-trained models. Furthermore, the objective of this research is to establish a comprehensive methodology that integrates evolutionary, physicochemical, and structural attributes of amino acids to enhance the overall feature representation. We observed that by transferring the learned features from specific organisms that are evolutionarily more closely related, the resulting models achieve better performance in predicting linear B-cell epitopes. This leads to increased performance in comparison to state-of-the-art methods for LBCE prediction in terms of AUC, F1, and MCC scores.
|
|
|
11
|
-
Dennis Savio Martins da Silva
-
Uma Arquitetura para Dados Geoespaciais Massivos de Internet das Coisas no Contexto de Objetos com Diferentes Níveis de Mobilidade
-
Orientador : MARISTELA TERTO DE HOLANDA
-
MEMBROS DA BANCA :
-
MARISTELA TERTO DE HOLANDA
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
CELIA GHEDINI RALHA
-
ANGELO RONCALLI ALENCAR BRAYNER
-
DANIEL CARDOSO MORAES DE OLIVEIRA
-
Data: 07/10/2025
-
-
Mostrar Resumo
-
A Internet das Coisas (IoT) tem sido crescentemente empregada em diferentes domínios de aplicação, e seus sistemas podem gerenciar objetos heterogêneos e com diferentes com- portamentos de mobilidade, o que leva a um cenário de crescimento no volume de dados com natureza geoespacial. Em algumas aplicações, os dados gerados são principalmente leituras realizadas por sensores estacionários. Em outros contextos, podem também ser geradas localizações de objetos móveis. Considerar o padrão de movimentação dos objetos IoT, assim como a relação entre os volumes de registros de localização e de mensurações coletados pelos dispositivos, tem o potencial de possibilitar a escolha de ferramentas com funcionalidades e desempenho mais adequados às necessidades do ambiente IoT em de- senvolvimento. Entretanto, existe pouca literatura que envolva a diferenciação no geren- ciamento e realização de operações geoespaciais de dados oriundos de dispositivos esta- cionários e o de dados de dispositivos móveis, de forma a relacionar o nível de mobilidade dos dispositivos ao desempenho dos mecanismos de armazenamento e consulta a dados geoespaciais. O objetivo deste trabalho é propôr uma arquitetura para o gerenciamento e realização de operações em dados geoespaciais massivos gerados por dispositivos IoT com diferentes comportamentos de mobilidade. A interface com o ambiente físico será responsável pela coleta dos dados dos objetos IoT e adaptação dos mesmos ao modelo da arquitetura. A camada de big data será responsável pelos mecanismos de armazenamento e realização de operações nos dados massivos geoespaciais. Por fim, a camada de apli- cação oferece recursos para recuperação e visualização dos dados espaciais da aplicação IoT. Para alcançar este objetivo, serão realizados um estudo comparativo de algumas das ferramentas mais utilizadas no processamento distribuído de dados geoespaciais massivos, considerando o desempenho de operações espaciais e no armazenamento para diferentes níveis de mobilidade em objetos IoT; e o desenvolvimento e execução da arquitetura proposta, empregando ferramentas de armazenamento e consulta a dados geoespaciais adequadas às características de mobilidade dos dispositivos IoT.
-
Mostrar Abstract
-
The Internet of Things (IoT) has been increasingly employed in different application domains, and its systems can manage heterogeneous objects with different mobility be- haviors, leading to a scenario of growth in the volume of data with geospatial nature. In some applications, the generated data is mainly readings taken by stationary sensors. In other contexts, location from mobile object can also be generated. Considering the pattern of movement of IoT objects, as well as the relationship between the volumes of location records and measurements collected by devices, has the potential to enable the choice of tools with functionalities and performance more suitable for the needs of the developing IoT environment. However, there is little literature involving differentiation in the management and performance of geospatial data operations originating from station- ary devices and mobile device data, in order to relate the level of mobility of devices to the performance of geospatial data storage and query mechanisms. The objective of this work is to propose an architecture for the management and performance of operations on massive geospatial data generated by IoT devices with different mobility behaviors. The interface with the physical environment will be responsible for collecting data from IoT objects and adapting them to the architecture model. The big data layer will be responsible for the storage mechanisms and performance of operations on massive geospa- tial data. Finally, the application layer provides resources for retrieving and visualizing spatial data from the IoT application. To achieve this objective, a comparative study of some of the most widely used tools in distributed processing of massive geospatial data will be conducted, considering the performance of spatial operations and storage for differ- ent levels of mobility in IoT objects; and the development and execution of the proposed architecture, using storage and query tools suitable for the mobility characteristics of IoT devices.
|
|
|
12
|
-
Vinícius Di Oliveira
-
Enhancing Large Language Models for Portuguese Language: Lexical Normalisation Case Study
-
Orientador : LI WEIGANG
-
MEMBROS DA BANCA :
-
EDNA DIAS CANEDO
-
LI WEIGANG
-
PEDRO GARCIA FREITAS
-
ALINE MARINS PAES CARVALHO
-
RODOLFO IPOLITO MENEGUETTE
-
Data: 12/12/2025
-
-
Mostrar Resumo
-
Esta tese aborda o desafio urgente de classificar mercadorias de forma eficaz de acordo com a Nomenclatura Comum do Mercosul (NCM), especialmente no contexto da língua portuguesa, onde recursos e modelos limitados apresentam obstáculos significativos. Os modelos de linguagem tradicionais muitas vezes enfrentam dificuldades para lidar com a especificidade e complexidade exigidas por essas tarefas, especialmente em línguas não inglesas. Como resultado, há uma forte necessidade de uma solução que não apenas processe o português de maneira eficiente, mas também melhore a precisão e a relevância das saídas de classificação em domínios especializados, como a fiscalização tributária.
A pesquisa propõe um modelo híbrido inovador, o Modelo Simplificado Lógico Inteligente de Ajuste Fino com Geração Aumentada por Recuperação de Informações (SLIM-RAFT), que combina as forças da Geração Aumentada por Recuperação (RAG) com a precisão de Modelos de Linguagem de Grande Escala (LLMs) ajustados. Esse modelo é projetado especificamente para lidar com tarefas de classificação em português, utilizando técnicas avançadas de engenharia de prompts e uma nova aplicação do processo de raciocínio Cadeia de Pensamento (CoT) para melhorar a interpretabilidade. Ao integrar esses componentes, o SLIM-RAFT resolve limitações importantes dos modelos existentes, oferecendo uma solução mais eficiente e precisa na categorização de mercadorias com base na NCM.
A metodologia empregada nesta pesquisa envolveu experimentações extensas com diversas arquiteturas de modelos e técnicas de treinamento. Ajustando os modelos com dados específicos de domínio em língua portuguesa, a pesquisa demonstra como o modelo SLIM-RAFT pode superar abordagens existentes tanto em termos de precisão quanto de eficiência de recursos. A capacidade do modelo de generalizar entre diferentes conjuntos de dados e cenários de classificação destaca seu potencial para aplicações mais amplas além da NCM, sugerindo que ele poderia ser aplicado a outras tarefas de classificação estruturadas em vários setores.
Durante o desenvolvimento, foi utilizado um conjunto de dados extenso, incluindo mais de 240.000 registros da NCM provenientes de notas fiscais eletrônicas (NFe’s). O modelo SLIM-RAFT foi capaz de alcançar um aumento de até 15\% na precisão em relação aos modelos atuais, com uma redução significativa no tempo de processamento. A avaliação foi realizada utilizando uma métrica de score baseada em perguntas e respostas, onde o SLIM-RAFT demonstrou um desempenho superior, atingindo uma média de 92\% de acertos nas tarefas de categorização, superando os modelos de comparação por uma margem de 10 a 12 pontos percentuais em cenários de dados complexos.
Esta pesquisa faz uma contribuição significativa ao campo do processamento de linguagem natural multilíngue, particularmente para a língua portuguesa. O modelo SLIM-RAFT não apenas oferece uma solução prática para melhorar a classificação de mercadorias segundo a NCM, mas também estabelece um precedente sobre como modelos híbridos, combinando geração aumentada por recuperação e ajuste fino, podem melhorar o desempenho de modelos de linguagem em domínios especializados. O trabalho futuro se concentrará em refinar ainda mais o modelo, expandir sua aplicação para outras tarefas de classificação e explorar a escalabilidade dessa abordagem para outras línguas e domínios.
-
Mostrar Abstract
-
This thesis addresses the pressing challenge of effectively classifying goods according to the Common Nomenclature of Mercosur (NCM), particularly in the context of the Portuguese language, where limited resources and models present significant obstacles. Traditional language models often struggle with the specificity and complexity required for such tasks, especially in non-English languages. As a result, there is a critical need for a solution that can process Portuguese efficiently and improve the accuracy and relevance of classification outputs in specialised domains like tax inspection.
The research proposes a novel hybrid model, the Simplified Logical Intelligent Model Retrieval-Augmented Fine-Tuning (SLIM-RAFT), which combines the strengths of Retrieval-Augmented Generation (RAG) with the precision of fine-tuned Large Language Models (LLMs). This model is designed to handle classification tasks in Portuguese, leveraging advanced prompt engineering techniques and a new application of the Chain-of-Thought (CoT) reasoning process to enhance interpretability. By integrating these components, SLIM-RAFT addresses key limitations in existing models, offering a more efficient and accurate solution in categorising goods based on NCM.
The methodology employed in this research involved extensive experimentation with various model architectures and training techniques. By fine-tuning models using domain-specific data from Portuguese-language sources, the research demonstrates how the SLIM-RAFT model can outperform existing approaches in terms of both accuracy and resource efficiency. The model’s ability to generalise across different datasets and classification scenarios highlights its potential for broader applications beyond NCM, suggesting it could be applied to other structured classification tasks in various industries.
During development, an extensive dataset comprised over 240,000 NCM records sourced from electronic invoices (NFe’s). The SLIM-RAFT model achieved up to a 15\% improvement in accuracy compared to existing models, alongside a significant reduction in processing time. The evaluation was conducted using a question-and-answer-based scoring metric, where SLIM-RAFT demonstrated superior performance, achieving an average accuracy rate of 92\% in categorisation tasks and outperforming comparison models by a margin of 10 to 12 percentage points in complex data scenarios.
This research contributes significantly to multilingual natural language processing, particularly for the Portuguese language. The SLIM-RAFT model not only offers a practical solution for improving goods classification according to NCM but also sets a precedent for how hybrid models combining retrieval-augmented generation and fine-tuning can enhance the performance of language models in specialised domains. Future work will focus on refining the model further, expanding its application to additional classification tasks, and exploring the scalability of this approach to other languages and domains.
|
|
|
13
|
-
Paulo Roberto da Paz Ferraz Santos
-
Metodologia para Produção de Inteligência de Ameaça Acionável em Nível Tático
-
Orientador : ANDRE COSTA DRUMMOND
-
MEMBROS DA BANCA :
-
ANDRE COSTA DRUMMOND
-
MARCELO ANTONIO MAROTTA
-
RODRIGO BONIFACIO DE ALMEIDA
-
ANDRE RICARDO ABED GREGIO
-
ROBSON DE OLIVEIRA ALBUQUERQUE
-
Data: 18/12/2025
-
-
Mostrar Resumo
-
A inteligência tática de ameaça descreve o comportamento adversário por meio de Táticas, Técnicas e Procedimentos (TTPs). Seu uso no Threat Hunting oferece vantagens significativas em relação aos Indicadores de Comprometimento (IoCs); no entanto, o alto nível de abstração das TTPs dificulta sua detecção por meio de regras, limitando a automação e a escalabilidade dessa abordagem. Para superar essa limitação, esta pesquisa propõe uma metodologia estruturada para produzir inteligência tática acionável, orientada à criação de regras de detecção de comportamentos adversários. A metodologia define um processo iterativo que aproveita a taxonomia MITRE ATT&CK e a expertise de analistas para mapear TTPs, desenvolver e validar regras de detecção, reduzindo a complexidade e permitindo seu aprimoramento contínuo. Além disso, é apresentado um modelo de dados para organizar e padronizar as informações geradas em formato de Runbook, servindo como fonte de inteligência tática para Threat Hunting e garantindo interoperabilidade e reutilização do conhecimento. A proposta foi avaliada por meio de uma prova de conceito baseada em estudos de caso, que demonstrou sua eficácia na geração de inteligência tática acionável e na criação de regras precisas, viabilizando a operacionalização da detecção baseada em TTPs. Por fim, são discutidos os benefícios, limitações e desafios identificados, bem como apresentadas as perspectivas futuras.
-
Mostrar Abstract
-
Tactical threat intelligence describes adversary behavior through Tactics, Techniques, and Procedures (TTPs). Its use in Threat Hunting offers significant advantages over traditional detection based on Indicators of Compromise (IoCs); however, the high level of abstraction of TTPs makes it difficult to detect them through rules, limiting automation and scalability in this approach. To overcome this limitation, this research proposes a structured methodology for producing actionable tactical intelligence aimed at creating detection rules for adversarial behaviors. The methodology defines an iterative process that leverages the MITRE ATT&CK taxonomy and analysts’ expertise to map TTPs, develop, and validate detection rules, reducing complexity and enabling continuous improvement. In addition, a data model is presented to organize and standardize the information generated in Runbook format, serving as a source of tactical intelligence for Threat Hunting and ensuring interoperability and knowledge reuse. The proposal was evaluated through a proof of concept based on case studies, demonstrating its effectiveness in generating actionable tactical intelligence and creating accurate detection rules, thereby enabling the operationalization of TTP-based detection. Finally, the study discusses the identified benefits, limitations, and challenges, as well as future research perspectives.
|
|