Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UnB

2025
Dissertações
1
  • JOÃO GABRIEL ROSSI DE BORBA
  • Do Abstrato ao Concreto: Uma Ferramenta para Implementação de Requisitos Éticos em Inteligência Artificial através de Histórias de Usuário

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • GERALDO PEREIRA ROCHA FILHO
  • LI WEIGANG
  • SHEILA DOS SANTOS REINEHR
  • Data: 28/01/2025

  • Mostrar Resumo
  • \textbf{Contexto:} Nos últimos anos, o campo da inteligência artificial passou por um processo de expansão notável, tanto na academia como na indústria. Este crescimento pode ser observado de várias formas, incluindo o desenvolvimento de tecnologias mais complexas, o aumento do investimento, uma maior atenção dos meios de comunicação social e a expansão das suas áreas de aplicação. No entanto, este avanço deu origem a questões éticas que estão sendo uma questão de crescente preocupação social, como o enviesamento de sistemas, aplicações danosas, entre outros.
    \textbf{Objetivo:}
    Este trabalho tem como objetivo apresentar uma visão geral do estado atual das soluções práticas para o desenvolvimento ético de sistemas baseados em IA em todas as fases do ciclo de vida de um sistema de software. Pretendeu-se também desenvolver uma ferramenta que operacionalize a tradução de requisitos éticos de alto nível em histórias de usuário éticas.
    \textbf{Método:}
    Para atingir este objetivo, este estudo baseou-se na metodologia \textit{Design Science Research}, que produziu três resultados até ao momento. Inicialmente, na fase de consciência do problema, foi atualizada a revisão sistemática da literatura desenvolvida por Cerqueira. Posteriormente, na fase de sugestão, a ferramenta proposta foi formulada como um sistema que traduz requisitos éticos em histórias de usuário éticas. Finalmente, na fase de desenvolvimento, foi implementada a primeira versão da ferramenta.
    \textbf{Resultados:} No total foram identificados 38 estudos primários. Dentre estes estudos, a maior parte (63\%) propõe uma solução prática para facilitar a aplicação de ética em IA, mas ainda existe uma lacuna entre teoria e prática no que se diz sobre ética em IA. Além disso, foi também compilada uma lista com 26 dos principais princípios éticos que foram discutidos na literatura. Foi também proposta e desenvolvida a ferramenta \textit{Requirements to US}, que utiliza histórias de usuário, princípios éticos em IA e modelos de LLMs para promover a integração da ética em IA durante a fase de Engenharia de Requisitos.
    \textbf{Conclusão:} Os resultados do processo de treinamento do modelo indicam que sua utilização é viável para possibilitar a prática de ética em IA durante os estágios iniciais do ciclo de vida do software. Consequentemente, os resultados preliminares indicam que a ferramenta facilita a integração da teoria e prática, preenchendo assim uma lacuna existente no atual conjunto de aplicações práticas.


  • Mostrar Abstract
  • \textbf{Context:} In recent years, the field of artificial intelligence has undergone a remarkable process of expansion, both at the academic and industrial levels. This growth can be observed in various ways, including the development of more complex technologies, increased investment, greater media attention and the expansion of its areas of application. However, this advancement has also given rise to a number of ethical issues that are becoming a matter of growing social concern, including system bias and the potential for harmful applications.
    \textbf{Objective:}
    This work aims to develop a tool that operationalises the translation of high-level ethical requirements into ethical user stories.
    \textbf{Methods:}
    In order to achieve this objective, this study was based on the Design Science Research methodology, which has yielded four results. Initially, in the problem awareness phase, a systematic literature review was updated. Subsequently, in the suggestion phase, the proposed tool was formulated as a system that transforms ethical requirements into ethical user stories. Following the second phase, the development stage, the first version of the tool was implemented. Finally, the tool was subjected to evaluation in order to generate empirically based evidence of whether it is fit for purpose.
    \textbf{Results:} A total of 38 primary studies were identified. The majority of these studies (63\%) put forward a practical solution to facilitate the application of ethics in AI. Nevertheless, a discrepancy persists between theoretical and practical applications of ethics in AI. Additionally, a list of 26 frequently discussed ethical principles in the literature was compiled. Subsequently, the Requirements to US tool was proposed, developed, and validated. This tool employs ethical user stories, AI ethics principles, and Large Language Models to facilitate the integration of AI ethics during the requirements engineering phase. The validation process yielded positive outcomes, confirming the effectiveness of the tool.
    \textbf{Conclusion:} The outcomes of the model's training process demonstrate its potential as a valuable tool for the early integration of AI ethics into software development. The results indicate that the tool supports the integration of theoretical and practical aspects, offering a promising solution to an existing gap in the current range of practical applications.

2
  • ELIZANGELA DE FREITAS XIMENES
  • ERC4AI: Uma Ferramenta para Classificação de Requisitos Éticos em IA.

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • CARLA TACIANA LIMA LOURENÇO SILVA
  • EDNA DIAS CANEDO
  • GERALDO PEREIRA ROCHA FILHO
  • LI WEIGANG
  • Data: 10/02/2025

  • Mostrar Resumo
  • A Inteligência Artificial (IA) tem ganhado destaque significativo tanto na comunidade científica quanto na indústria, possibilitando que máquinas realizem tarefas anteriormente exclusivas aos humanos. Como consequência, impulsionou avanços em várias áreas, como a medicina, a educação e as finanças, graças à implementação de tecnologias como BERT, ChatGPT, GANs, entre outras. Contudo, as implicações éticas e de segurança relacionadas à utilização da IA têm se tornado uma preocupação crescente, incidindo sobre questões de viés, uso indevido e o impacto social que pode causar. Objetivo: Este trabalho teve como objetivo desenvolver o Ethical Requirements Classifier for AI (ERC4AI), um classificador automatizado que empregou técnicas de Aprendizado de Máquina para identificar requisitos éticos em projetos de IA e validar a conformidade destes com RE4AI Ethical Guide, destinado a auxiliar os Product Owners e desenvolvedores de aplicações baseadas em IA na coleta de requisitos éticos. Método: Neste estudo, foram adotadas algumas fases propostas pelo Cross Industry Standard Process for Data Mining (CRISP-DM) na realização da mineração de dados. A Fase 1 foi dedicada à análise do RE4AI Ethical Guide, para avaliar a possibilidade de integrá-lo no desenvolvimento de soluções baseadas em IA, utilizando-o no levantamento de requisitos éticos. Na Fase 2 foi realizada a obtenção dos dados em repositórios públicos, com o propósito de construir um conjunto representativo de requisitos éticos para desenvolvimento do ERC4AI. A Fase 3 se propôs à análise manual e a rotulação dos dados para classificação de textos com padrão de requisitos éticos em IA, seguida pela Fase 4, em que foram os aplicadas técnicas de pré-processamento de dados para a limpeza e padronização dos mesmos, preparando-os assim para o treinamento do modelo. A Fase 5 envolveu o desenvolvimento de um classificador textual, explorando algoritmos como BERT, RoBERTa, DistilBERT e XLM. Após a implementação e a avaliação comparativa dos modelos, o algoritmo com melhor desempenho foi selecionado e denominado ERC4AI. Resultados: Dentre os modelos avaliados,  BERT demonstrou superioridade em termos de desempenho, alcançando uma taxa de certo superior a 80% nas métricas de Precisão, Recall, F1-Score e Macro AVG. Além isso, observou-se uma correspondência significativa entre as perguntas do RE4AI Ethical uide e os requisitos éticos em IA considerados neste estudo, especialmente os princípios éticos de Transparência e Responsabilidade, que se destacaram com o maior número de uestões associadas. Conclusão: Os resultados obtidos indicam uma precisão notável a classificação de requisitos éticos em IA. Adicionalmente, é ressaltada a viabilidade do E4AI Ethical Guide como uma ferramenta para a incorporação de considerações éticas o desenvolvimento de sistemas de IA. Este estudo abre caminho para futuras investigações focadas na otimização de modelos de classificação de requisitos éticos em IA.


  • Mostrar Abstract
  • Artificial Intelligence (AI) has gained significant prominence in both the scientific community and the industry, enabling machines to perform tasks previously exclusive to humans. As a consequence, it has driven advancements in various areas, such as medicine, education, and finance, thanks to the implementation of technologies like ERT, ChatGPT, and GANs, among others. However, the ethical and security implications related to the use of AI have become a growing concern, focusing on issues of bias, misuse, and the social impact it can cause. Objective: This work aimed to develop the Ethical Requirements Classifier for AI (ERC4AI), an automated classifier that employed Machine Learning techniques to identify ethical requirements in AI projects and validate their compliance with the RE4AI Ethical Guide, intended to assist Product Owners and developers of applications based on AI in the collection of ethical requirements. Method: In this study, some phases proposed by the Cross Industry Standard Process for Data Mining (CRISP-DM) were adopted for data mining. Phase 1 was dedicated to the analysis of the RE4AI Ethical Guide, to assess the possibility of integrating it in the development of AI-based solutions, using it in the gathering of ethical requirements. Phase 2 involved obtaining data from public repositories, with the purpose of constructing a representative set of ethical requirements for the development of ERC4AI. Phase 3 proposed the manual analysis and labeling of data for the classification of texts with a pattern of ethical requirements in AI, followed by Phase 4, in which data pre-processing techniques were applied for cleaning and standardization, thus preparing them for model training. Phase 5 involved the development of a textual classifier, exploring algorithms like BERT, RoBERTa, DistilBERT, and XLM. After the implementation and comparative evaluation of the models, the algorithm with the best performance was selected and named ERC4AI. Results: Among the evaluated models, BERT showed superiority in terms of performance, achieving an accuracy rate of over 80% in the metrics of Precision, Recall, F1-Score, and Macro AVG. Furthermore, a significant correspondence was observed between the questions of the RE4AI Ethical Guide and the ethical requirements in AI considered in this study, especially the ethical principles of Transparency and Responsibility, which stood out with the highest number of associated questions. Conclusion: The results obtained indicate a remarkable precision in the classification of ethical requirements in AI. Additionally, the feasibility of the RE4AI Ethical Guide as a tool for incorporating ethical considerations in the development of AI systems is highlighted. This study paves the way for future investigations focused on optimizing models for the classification of ethical requirements in AI.
3
  • VITOR VASCONCELOS DE OLIVEIRA
  • Estudo sobre Redes Neurais de Grafos Bipartidos com Palavra-Chave e Atenção para Classificação Transdutiva de Texto

  • Orientador : THIAGO DE PAULO FALEIROS
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO LAVAREDA JACOB JÚNIOR
  • DIBIO LEANDRO BORGES
  • THIAGO DE PAULO FALEIROS
  • Data: 20/02/2025

  • Mostrar Resumo
  • Na atualidade, o Processamento de Linguagem Natural (NLP) evoluiu rapidamente em uma ampla gama de tarefas, especialmente graças aos avanços do Aprendizado de Máquina (ML) e do Aprendizado Profundo (DL) ao longo dos anos. No entanto, devido à alta complexidade e aos diversos pré-requisitos dessas tecnologias, as metodologias convencionais de classificação de texto de NLP geralmente exigem uma grande quantidade documentos rotulados e alto poder computacional. Este trabalho investiga três técnicas para abordar e solucionar esses desafios. Primeiramente e mais significativamente, está o uso de abordagens baseadas em grafos transdutivos para a tarefa de classificação de texto, visando reduzir a quantidade necessária de dados rotulados. Para este processo inicial, emprega-se o já renomado modelo de Graph Convolutional Networks (GCN) e o modelo mais contemporâneo de Graph Attention Networks (GAT), ambos utilizando uma nova estrutura de grafos bipartidos de documento-conceito que usam Keyphrases (conceitos) para aquisição de conhecimento de tópicos e enriquecimento de informações dos modelos. A segunda técnica utilizada, constitui na aplicação de coarsening para promover a redução dos grafos, reduzindo assim os custos computacionais. Por fim, emprega-se Large Language Models (LLM) como rotuladores de baixo custo, removendo ou reduzindo a necessidade de rotuladores humanos. Os resultados mostram que o modelo GAT teve o melhor desempenho para tarefas de classificação de texto transdutivo usando a abordagem de grafos bipartidos de documento-conceito, sendo este um desempenho comparável aos de modelos indutivos tradicionais mesmo usando apenas de 1 a 30 documentos rotulados por classe. Referente a aplicação de coarsening, ocorreu uma redução de 40%-50% no tamanho dos grafos preservando em média 82% do desempenho dos modelos, variando de 68% a 95% em vários conjuntos de dados. LLMs foram capazes de treinar vários modelos eficientes, mas quando comparados a modelos treinados usando dados rotulados por humanos apresentaram resultados inferiores, demonstrando que o aprendizado transdutivo favorece pequenas quantidades de dados muito precisos em alternativa de uma quantidade abundante de dados moderadamente precisos.


  • Mostrar Abstract
  • In contemporary times, Natural Language Processing (NLP) has swiftly evolved in a wide range of tasks, especially thanks to Machine Learning (ML), and Deep Learning (DL) great advancements over the years. However, due to these technologies' complexity and data prerequisites, current conventional NLP text classification methodologies often require large numbers of labeled documents and large computational power. This paper mainly investigates three techniques to address such challenges. First is the use of Transductive Graph-based approaches for the text classification task, aiming to reduce the labeled data required amount, for this, we employ both the previously well-established Graph Convolutional Networks (GCN) and the more contemporary Graph Attention Networks (GAT) on a novel document-context bipartite framework. The second is applying Coarsening for graph reduction and thus reducing computational costs. Lastly, we aim to employ Large Language Models (LLM) as low-cost labelers effectively removing the need for human labelers. Preliminary results show GAT as the best performing model for transductive text classification tasks, as well as presenting coarsening with minor performance reductions even with 40%-50% graph size reduction.

4
  • JOÃO PAULO COSTA E SOUZA
  • Usando IA para previsão e negociação em mercados, um estudo de aprendizagem profunda e aprendizagem por reforço profundo em finanças

  • Orientador : GERALDO PEREIRA ROCHA FILHO
  • MEMBROS DA BANCA :
  • FRANCISCO AIRTON PEREIRA DA SILVA
  • EDNA DIAS CANEDO
  • GERALDO PEREIRA ROCHA FILHO
  • Data: 28/02/2025

  • Mostrar Resumo
  • No contexto de negociação financeira, a identificação de tendências e estratégias de tomada de decisão são componentes cruciais para atingir lucratividade consistente e minimizar riscos. Dada a importância desses dois desafios, este projeto propõe uma solução que combina várias técnicas avançadas para aprimorar a precisão preditiva e o desempenho de negociação. A abordagem proposta incorpora Autoencoders para engenharia de recursos, permitindo redução efetiva de dimensionalidade e a extração de padrões significativos de indicadores técnicos. Para identificação de tendências, o modelo alavanca uma combinação de Redes Neurais Convolucionais (CNNs) e Redes de Memória Longa e Curta Prazo Bidirecionais (BiLSTMs), juntamente com rotulagem baseada em regressão linear para definir tendências de mercado com maior precisão. Na fase de tomada de decisão, o sistema emprega o algoritmo Rainbow DQN, aprimorado com um buffer de memória, para otimizar estratégias de negociação e maximizar a lucratividade no mercado de criptomoedas. Para avaliar rigorosamente a eficácia da estrutura proposta, o desempenho de identificação de tendências é avaliado usando precisão, exatidão e recall, enquanto o desempenho de negociação é medido por meio de retorno, sua média e desvio padrão. Os resultados experimentais demonstram que o modelo supera uma linha de base aleatória na previsão de tendências, validando a eficácia dos componentes de engenharia de recursos e aprendizado profundo. Além disso, apesar de experimentar flutuações significativas nos retornos de negociação, o agente obteve um lucro médio positivo, destacando o potencial da abordagem proposta no desenvolvimento de uma estratégia de negociação adaptável e orientada por dados.


  • Mostrar Abstract
  • In the context of market negotiations, the Stop-Loss stands out as a key tool among risk management strategies, preventing moderate losses from turning into true disasters. Given its importance, there is an interest in knowing where to place it, when and how it should follow the price curve, and how it will act in conjunction with the buying and selling strategy. It is in this sense that the present work develops, proposing that the automatic placement of the Stop-Loss be carried out by an agent trained through reinforcement learning, and that this training occurs concurrently with the training of the agent responsible for buy and sell signals. To feed both agents, a price prediction system is proposed, aiming to estimate some values of future candles to feed them. The internal structure of the predictor system comprises artificial neural networks with convolutional and biLSTM layers. 

5
  • FILIPE MAIA SOARES
  • Comparação Paralela de Sequências Biológicas em Múltiplas GPUs com Mecanismo de Tolerância a Falhas  

  • Orientador : ALBA CRISTINA MAGALHAES ALVES DE MELO
  • MEMBROS DA BANCA :
  • ALBA CRISTINA MAGALHAES ALVES DE MELO
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • PHILIPPE OLIVIER ALEXANDRE NAVAUX
  • RICARDO PEZZUOL JACOBI
  • Data: 13/03/2025

  • Mostrar Resumo
  • A comparação de sequências biológicas é uma das principais operações na área de Bioinformática. Os algoritmos exatos utilizados para compará-las aliado ao tamanho das sequências pode acarretar em horas ou até mesmo dias de execução. Neste contexto, é fundamental que tais aplicações estejam amparadas com mecanismos de tolerância a falhas, uma vez que a ocorrência de uma falha pode demandar a reexecução completa da aplicação, gerando prejuízos em termos de tempo e de custo. O MASA-CUDAlign é uma ferramenta de comparação de sequências exata, que implementa tolerância a falhas em apenas uma GPU. O objetivo da presente Dissertação de Mestrado consiste em propor, implementar e avaliar um mecanismo de tolerância a falhas para o MASA-CUDAlign, utilizando múltiplas GPUs. O mecanismo de tolerância a falhas baseia-se numa funcionalidade da ferramenta, que é o armazenamento de algumas colunas em disco, reaproveitando-as como checkpoints síncronos. A avaliação deste mecanismo leva em consideração seu overhead frente à versão original, a análise de falha em diferentes circunstâncias e experimentos utilizando uma quantidade superior de GPUs (oito), com múltiplas falhas simultâneas.
        

  • Mostrar Abstract
  •  

    Biological sequence comparison is one of the main operations in Bioinformatics. The exact algorithms used to compare sequences, combined with the large size of the sequences, can result in hours or even days of execution. In this context, it is essential to implement fault tolerance techniques in such applications, since the occurrence of a failure may lead to the complete re-execution of the application, causing losses in terms of time and cost. MASA-CUDAlign is an exact sequence comparison tool that implements fault tolerance on just one GPU. The main goal of this Master's Thesis is to propose, implement, and evaluate a fault tolerance mechanism for MASA-CUDAlign, using multiple GPUs. The fault tolerance mechanism is based on a feature of the tool, which consists in storing some columns on disk, and reusing them as synchronous checkpoints. The evaluation of this mechanism takes into consideration its overhead compared to the original version, failure analysis in different circumstances and experiments using a greater amount of GPUs (eight), with multiple simultaneous failures.
      
6
  • TAYNÁ LARISSA FISCHER VIEIRA
  • A Framework of Memoization and Variational Lift using Interpreters

  • Orientador : VANDER RAMOS ALVES
  • MEMBROS DA BANCA :
  • VANDER RAMOS ALVES
  • PEDRO GARCIA FREITAS
  • RODRIGO BONIFACIO DE ALMEIDA
  • PAULO HENRIQUE MONTEIRO BORBA
  • Data: 26/03/2025

  • Mostrar Resumo
  • Linhas de Produtos de Software (SPLs) possibilitam o desenvolvimento sistemático de sistemas configuráveis ao organizar produtos como famílias que compartilham funcionalidades comuns e diferem em recursos selecionados. No entanto, a análise estática em SPLs enfrenta desafios de escalabilidade devido à variabilidade no espaço (entre configurações) e no tempo (entre revisões de software). Esta dissertação propõe um framework baseado em interpretadores que combina lifting variacional e memoização para suportar análises estáticas escaláveis e reutilizáveis em SPLs em evolução. As análises são implementadas como programas PCF+ e executadas sobre representações variacionais dos programas, anotadas com condições de presença. A memoização permite reutilizar resultados computados anteriormente entre diferentes versões do programa, reduzindo cálculos redundantes e contribuindo para a melhoria do desempenho. O framework foi avaliado com programas que simulam cenários realistas de evolução de software. Os resultados demonstram que o uso combinado de lifting variacional e memoização reduz efetivamente o tempo de execução, evidenciando as vantagens de abordar ambas as dimensões da variabilidade. Este trabalho contribui com uma infraestrutura reutilizável para análises baseadas em fluxo de controle em SPLs, além de fornecer evidências empíricas da sua eficiência.


  • Mostrar Abstract
  • Software Product Lines (SPLs) enable the systematic development of configurable software systems by organizing products as families that share commonalities and differ in selected features. However, static analysis in SPLs poses scalability challenges due to variability in space (across configurations) and variability in time (across software revisions). This dissertation presents an interpreter-based framework that combines variational lifting and memoization to support scalable and reusable static analysis of evolving SPLs. Analyses are implemented as PCF+ programs and executed over variational representations of programs, annotated with presence conditions. Memoization mechanisms allow the reuse of previously computed results across program evolutions, reducing redundant computations and contributing to performance improvements. The framework is evaluated using benchmarks simulating realistic software evolution scenarios. Results show that the combined use of variational lifting and memoization effectively reduces execution time, demonstrating the advantages of addressing both dimensions of variability. This work contributes a reusable infrastructure for control-flow-based analyses in SPLs and provides empirical evidence supporting its efficiency.

7
  • DANIEL SILVA ALMENDRA
  • Análise de Soluções de Privacidade em Blockchain

  • Orientador : EDUARDO ADILIO PELINSON ALCHIERI
  • MEMBROS DA BANCA :
  • EDUARDO ADILIO PELINSON ALCHIERI
  • LUIS PAULO FAINA GARCIA
  • RODRIGO BONIFACIO DE ALMEIDA
  • FERNANDO LUIS DOTTI
  • Data: 27/03/2025

  • Mostrar Resumo
  • A maioria das plataformas de blockchain armazena as transações publicamente no ledger. Embora essa abordagem garanta a corretude e a auditabilidade das operações, ela impõe um obstáculo significativo para o desenvolvimento de aplicações que preservem a privacidade dos usuários. Diversas abordagens têm sido propostas para mitigar esse problema, empregando técnicas variadas e oferecendo diferentes níveis de privacidade. No entanto, o campo de pesquisa nessa área demonstra carência de análises abrangentes e comparativas das soluções de privacidade disponíveis.

    Esta dissertação apresenta uma análise conceitual de soluções de privacidade para plataformas de blockchain, comparando suas arquiteturas, funcionalidades e limitações. Além disso, é realizada uma avaliação empírica de duas dessas soluções – Anonymous Zether e Zeestar. Nessa análise, é implementado um caso de uso no qual essas soluções são utilizadas para aprimorar a privacidade da aplicação Miles2Coins, uma plataforma de compra e venda de tokens de milhas aéreas desenvolvida para este estudo. Assim, é possível investigar os impactos sobre o desempenho, os custos transacionais e a complexidade adicional envolvida na implementação de mecanismos de privacidade em aplicações descentralizadas. Os resultados evidenciam os desafios enfrentados pelas abordagens atuais para oferecer uma solução definitiva para a privacidade em blockchain sem compromissos.


    Por fim, este trabalho discute o panorama atual da privacidade em blockchain, avaliando os avanços recentes e as dificuldades associadas à adoção de plataformas de blockchain com mecanismos de privacidade integrados. O principal obstáculo reside em atender a requisitos rigorosos de privacidade sem comprometer significativamente o desempenho, os custos e a usabilidade das aplicações descentralizadas.


  • Mostrar Abstract
  • Most blockchain platforms store transactions publicly on the ledger. While this approach ensures the correctness and auditability of operations, it poses a significant obstacle to the development of privacy-preserving applications. Various approaches have been proposed to mitigate this issue, employing different techniques and offering varying levels of privacy. However, the research field in this area lacks comprehensive and comparative analyses of existing privacy solutions.

    This dissertation presents a conceptual analysis of 20 privacy solutions for blockchain platforms, comparing their architectures, features, and limitations. Additionally, an empirical evaluation of two of these solutions – Anonymous Zether and Zeestar – is conducted. In this analysis, a use case is implemented in which these solutions are utilized to enhance privacy in Miles2Coins, an airline miles token trading platform developed for this study. This evaluation allows an investigation into the impact of privacy solutions on performance, transaction costs, and the additional complexity involved in their integration into decentralized applications. The results highlight the challenges faced by current approaches in providing a definitive privacy solution for blockchain without trade-offs.

    Finally, this work discusses the current landscape of privacy in blockchain, assessing recent advances and the difficulties associated with the adoption of blockchain platforms with integrated privacy mechanisms. The main obstacle lies in meeting stringent privacy requirements without significantly compromising the performance, cost, and usability of decentralized applications.

8
  • EDUARDO LEMOS ROCHA
  • Modelagem de Tempo Contínuo em termos Funcionais: Corrigindo Equações Diferenciais com Haskell

  • Orientador : EDUARDO PEIXOTO FERNANDES DA SILVA
  • MEMBROS DA BANCA :
  • EDUARDO PEIXOTO FERNANDES DA SILVA
  • PEDRO GARCIA FREITAS
  • RODRIGO BONIFACIO DE ALMEIDA
  • DÊNIS SILVA LOUBACH
  • Data: 28/04/2025

  • Mostrar Resumo
  • enômenos físicos são difíceis de modelar propriamente devido a sua natureza contínua. O paralelismo e nuances envolvidos eram um desafio antes do transistor, e mesmo depois do computador digital esse problema continua insolúvel. No passado, algum formalismo foi trazido pelo computador analógico de propósito geral (GPAC) por Shannon nos anos 1940. Infelizmente, essa base formal foi perdida com o tempo, e práticas ad-hoc tornaram-se comuns para simular o tempo contínuo. Neste trabalho, propomos uma linguagem de domínio específico (DSL) – FACT e sua evolução FFACT – escrita em Haskell que assemelha-se aos conceitos do GPAC. O principal objetivo é aproveitar de abstrações de mais alto nível, tanto da área da programação quanto da matemática, para executar sistemas de equações diferenciais, que descrevem sistemas físicos matematicamente. Nós avaliamos performance and problemas de domínio e os endereçamos propriamente. Melhorias futuras para a DSL também são exploradas e datalhadas.


  • Mostrar Abstract
  • Physical phenomena is difficult to properly model due to its continuous nature. Its paralellism and nuances were a challenge before the transistor, and even after the digital computer still is an unsolved issue. In the past, some formalism were brought with the General Purpose Analog Computer proposed by Shannon in the 1940s. Unfortunately, this formal foundation was lost in time, with ad-hoc practices becoming mainstream to simulate continuous time. In this work, we propose a domain-specific language (DSL) – FACT and its evolution FFACT – written in Haskell that resembles GPAC’s concepts. The main goal is to take advantage of high level abtractions, both from the areas of programming and mathematics, to execute systems of differential equations, which describe physical problems mathematically. We evaluate performance and domain problems and address them accordingly. Future improvements for the DSL are also explored and detailed.

9
  • JOÃO PEDRO FELIX DE ALMEIDA
  • HoLoSig: Aprendizagem de Representações Holísticas e Locais para a Verificação de Assinaturas Online

  • Orientador : PEDRO GARCIA FREITAS
  • MEMBROS DA BANCA :
  • PEDRO GARCIA FREITAS
  • FLAVIO DE BARROS VIDAL
  • HUGO TADASHI MUNIZ KUSSABA
  • BYRON LEITE BEZERRA
  • Data: 21/07/2025

  • Mostrar Resumo
  • Neste trabalho, abordamos o problema de minimizar a taxa de Equal Error Rate (EER) global em um sistema de verificação de assinaturas online independente de escritor, decompondo-a em duas componentes: a taxa de erro de separação e a taxa de erro de alinhamento. A taxa de separação surge da falta de uma separação correta entre assina- turas genuínas e falsificadas, enquanto a de alinhamento resulta da incapacidade de um único limiar global capturar de forma eficaz as separações específicas de cada escritor. Enquanto as abordagens tradicionais da literatura focam exclusivamente em aumentar a separação entre assinaturas genuínas e falsificadas, essa decomposição nos permite endereçar o problema também do ponto de vista da falta de alinhamento entre os limiares específicos de cada usuário.

    Para isso, propomos HoLoSig, um novo arcabouço que integra duas populares rep- resentações profundas de assinaturas através de uma arquitetura convolucional 1D compartilhada que se bifurca em dois ramos especializados. Em um dos ramos, utilizamos a Triplet Loss com Soft-DTW para aprender representações locais de comprimento var- iável, cujas pontuações de dissimilaridade são deslocadas para uma região comum com a ajuda da Discrepância Média Máxima, a fim de melhorar o desempenho do sistema ao usar um limiar global. No outro ramo, empregamos como função de perda a expansão polinomial da entropia cruzada com correção no primeiro polinômio para aprender rep- resentações holísticas de comprimento fixo, que são usadas para reforçar ainda mais a separação criada pelo ramo de representações locais.

    Para avaliar o método proposto nós conduzimos diversos experimentos de ablação que confirmam a redução tanto no erro de separação quanto de alinhamento e concluímos que a Triplet-MMD desempenha papel fundamental na redução do último. Em seguida, estendemos a análise ao substituir a MMD por outras medidas de divergência estatística e comprovamos que elas alcançam resultados comparáveis—demonstrando que o erro de alinhamento pode ser reduzido ao garantir que as pontuações de dissimilaridade do sistema sigam uma distribuição consistente.

    Como um arcabouço independente de escritor, HoLoSig não possui dependência de usuários e é portanto capaz de verificar assinaturas de escritores não vistos durante o treinamento sem a necessidade de qualquer adaptação ou ajuste-fino. No entanto, HoLoSig não está livre de vieses relacionados aos dispositivos de captura e protocolo de aquisição de assinaturas. Portanto, para avaliar a robustez do modelo a essas particularidades nós realizamos diversos experimentos onde o treinamento é realizado com dados oriundos de protocolos de aquisição e dispositivos de captura diferentes dos utilizados para medir o erro do sistema. Nossos resultados são promissores, pois eles não apenas mostram forte capacidade de generalização mas também que HoLoSig consegue superar métodos que figuram no estado da arte mesmo se treinada com apenas metade dos dados utilizados por eles.

    HoLoSig foi idealizada para verificação de assinaturas online realizadas com canetas (stylus). No entanto, nós estendemos sua arquitetura para endereçar o problema de verifi- cação de assinaturas online realizadas com dedo. Um dos maiores desafios na verificação de assinaturas feitas com dedo é o tamanho limitado dos conjuntos de dados disponíveis para pesquisa comparado com aqueles onde as assinaturas foram feitas com caneta, o que fre- quentemente inviabiliza o treinamento do zero. Para endereçar isso, nós adicionamos um ramo classificador de domínio na arquitetura de HoLoSig, transformando-a efetivamente em uma Rede Neural de Adaptação de Domínio. A arquitetura HoLoDANN resultante nos permite tirar proveito tanto das assinaturas feitas com caneta quanto das assinaturas feitas com dedo para melhor abordar o problema de assinaturas feitas com dedo.

    HoLoSig e HoLoDANN alcançam resultados de ponta no DeepSignDB, o maior con- junto de verificação de assinaturas online atualmente. Os resultados (EER) de HoLoSig no cenário de assinaturas feitas com caneta contra falsificações habilidosas e aleatórias são: 1,73% (4vs1 habilidosas), 3,29% (1vs1 habilidosas), 0,43% (4vs1 aleatórias) e 0,89% (1vs1 aleatórias). Os resultados (EER) de HoLoDANN no cenário de assinaturas feitas com dedo contra falsificações habilidosas e aleatórias são: 5,65% (4vs1 habilidosas), 9.99% (1vs1 habilidosas), 0,55% (4vs1 aleatórias) e 1,78% (1vs1 aleatórias).

     


  • Mostrar Abstract
  • In this work, we address the problem of minimizing the Equal Error Rate (EER) in a Writer-Independent (WI) Online Signature Verification (OSV) system by decomposing it into two components: the separation error and the alignment error. The separation error arises from the lack of proper distinction between genuine and forged signatures, while the alignment error arise from the inability of a single global threshold to effectively capture the writer-specific separations. While traditional approaches in the literature focus solely on increasing the separation between genuine and forged signatures, this decomposition also enables us to tackle the problem from the perspective of writer-specific threshold misalignment.

    To this end, we propose HoLoSig, a novel framework that integrates two popular deep signature representations via a shared 1D convolutional backbone, which bifurcates into two specialized branches. On one branch, we employ Triplet Loss with Soft-DTW to learn variable-length local representations, whose dissimilarity scores are shifted to a common region with the help of Maximum Mean Discrepancy (MMD), improving the system’s performance when using a global threshold. On the other branch, we use Poly-1 Cross Entropy Loss to learn fixed-length holistic representations, which further enhance the separation achieved by the local representation branch.

    To evaluate the proposed method, we conduct several ablation experiments that con- firm the reduction of both separation and alignment errors, and show that Triplet-MMD plays a significant role in reducing the latter. We further extend Triplet-MMD by replacing MMD with other divergence metrics, and find that they achieve comparable results—demonstrating that alignment error can be reduced by ensuring the dissimilarity scores of the OSV system follow a consistent distribution.

    As a WI framework, HoLoSig has no dependency on writers and is therefore capable of verifying signatures from unseen writers without the need for any adaptation or fine- tuning. However, HoLoSig is not free from biases related to acquisition devices and protocols. To assess the model’s robustness to these particularities, we conduct several experiments in which training is performed using data acquired with different devices and protocols from those used to evaluate the system’s EER. Our results are promising, as they show not only strong generalization capability but also that HoLoSig can outperform state-of-the-art methods while using as little as half the training data they use.

    HoLoSig is designed for stylus-written OSV. However, we extend its architecture to address the problem of finger-written OSV. One of the major challenges in finger-written OSV is the limited size of available datasets compared to those for stylus-written signatures, which often makes training from scratch difficult. To address this, we add a domain classifier branch to HoLoSig, effectively transforming it into a Domain Adaptation Neural Network (DANN). The resulting HoLoDANN architecture allows us to leverage knowledge from both stylus- and finger-written signatures to better tackle the finger-written OSV problem.

    HoLoSig and HoLoDANN achieve state-of-the-art results on DeepSignDB, the largest OSV dataset to date. HoLoSig’s EER results in the stylus scenario against skilled and random forgeries are: 1.73% (4vs1 skilled), 3.29% (1vs1 skilled), 0.43% (4vs1 random), and 0.89% (1vs1 random). HoLoDANN’s EER results in the finger scenario against skilled and random forgeries are: 5.65% (4vs1 skilled), 9.99% (1vs1 skilled), 0.55% (4vs1 random), and 1.78% (1vs1 random).

Teses
1
  • EMERSON DE ARAUJO MACEDO
  • Adaptive Patch Grid Strategy for Parallel Protein Folding using Atomic Burials with NAMD

  • Orientador : ALBA CRISTINA MAGALHAES ALVES DE MELO
  • MEMBROS DA BANCA :
  • ALBA CRISTINA MAGALHAES ALVES DE MELO
  • MARIA EMILIA MACHADO TELLES WALTER
  • MARIO ANTONIO RIBEIRO DANTAS
  • MÁRCIO DORN
  • RICARDO PEZZUOL JACOBI
  • Data: 11/03/2025

  • Mostrar Resumo
  • O dobramento de proteínas é um processo crucial na biologia molecular para a compreensão da dinâmica estrutural e funcional das proteínas. Simulações de dinâmica molecular são importantes para fornecer insights em nível atômico sobre o processo de dobramento, permitindo a investigação de mudanças estruturais ao longo do tempo. No entanto, estas simulações enfrentam muitos desafios, incluindo elevados custos computacionais e longos tempos de execução, especialmente quando simulam grandes sistemas biomoleculares em escalas de tempo relevantes. Esta Tese de Doutorado visa enfrentar esses desafios investigando estratégias paralelas para reduzir o tempo de execução, mantendo a precisão. Especificamente, este trabalho propõe uma estratégia Adaptive Patch Grid (APG) que ajusta dinamicamente a decomposição espacial ao longo do processo de dobramento para melhorar o equilíbrio de carga e a eficiência em simulações de dinâmica molecular. Além disso, esta tese de doutorado propõe o algoritmo N2HB, que incorpora potenciais de enterramento atômico e ligações de hidrogênio na simulação de dinâmica molecular para melhorar a precisão do modelo de dobramento. Ambas as propostas (APG e N2HB) foram implementadas utilizando a plataforma NAMD, um software de dinâmica molecular paralelo. Novos componentes, como ComputeBurialForce e ComputeHBonds, foram adicionados para permitir o cálculo paralelo das forças de enterramento e de ligação. Pesos de anelamento foram aplicados para otimizar o processo de minimização de energia durante o dobramento. As soluções foram avaliadas por meio de testes extensivos em diversos sistemas de Computação de Alto Desempenho (HPC), mostrando tempos de execução reduzidos e mantendo boa precisão de simulação. Esta Tese de Doutorado contribui para a área ao fornecer estratégias de paralelização que melhoram o desempenho de simulações de dinâmica molecular para enovelamento de proteínas, abordando limitações computacionais e oferecendo métodos para dimensionar essas simulações para sistemas biológicos mais complexos.
    Palavras Chave em Português: dobramento de proteínas, dinâmica molecular, computação de alto desempenho, enterramento atômico


  • Mostrar Abstract
  • Protein folding is a crucial process in molecular biology for understanding the structural and functional dynamics of proteins. Molecular dynamics simulations are important for providing atomic-level insights into the folding process, enabling the investigation of structural changes over time. However, these simulations face many challenges, including high computational costs and long execution times, especially when simulating large biomolecular systems over relevant time scales. This PhD Thesis aims to address these challenges by investigating parallel strate- gies to reduce execution time while maintaining accuracy. Specifically, this work proposes an Adaptive Patch Grid (APG) strategy that dynamically adjusts spatial decomposition throughout the folding process to improve load balancing and effi- ciency in molecular dynamics simulations. Additionally, this PhD Thesis proposes the N2HB algorithm, which incorporates atomic burial and hydrogen bonding po- tentials into the molecular dynamics simulation to improve the accuracy of the fold- ing model. Both proposals (APG and N2HB) were implemented using the NAMD platform, a parallel molecular dynamics software. New components such as Com- puteBurialForce and ComputeHBonds were added to enable parallel computation of burial and bonding forces. Annealing weights were applied to optimize the en- ergy minimization process during folding. The solutions were evaluated through extensive testing on various High-Performance Computing (HPC) systems, show- ing reduced execution times while maintaining good simulation accuracy. This PhD Thesis contributes to the field by providing parallelization strategies that enhance the performance of molecular dynamics simulations for protein folding, addressing computational limitations and offering methods to scale these simulations for more complex biological systems.

2
  • George Oliveira Barros
  • Classificação e Segmentação de Imagens de Lesões Podocitárias: Contribuições para Cenários Multicorantes e Desbalanceados Utilizando Modelos de Aprendizado Profundo

  • Orientador : FLAVIO DE BARROS VIDAL
  • MEMBROS DA BANCA :
  • RODRIGO DE MELO SOUZA VERAS
  • DAVID MENOTTI GOMES
  • FLAVIO DE BARROS VIDAL
  • ROBERTA BARBOSA OLIVEIRA
  • Data: 24/03/2025

  • Mostrar Resumo
  • A podocitopatia é uma condição patológica caracterizada por lesões nos podócitos, células localizadas no glomérulo renal responsáveis pela filtragem do sangue. Essas lesões comprometem a função renal e podem evoluir para condições graves, como glomerulosclerose, proteinúria e nefropatia diabética. O desenvolvimento de técnicas para identificação de lesões podocitárias em imagens de glomérulos apresenta desafios significativos, devido à natureza laboriosa da tarefa e à dificuldade em diferenciar podócitos de outras células. A patologia computacional, com o auxílio de ferramentas computacionais, busca apoiar patologistas na análise dessas imagens. Contudo, técnicas de deep learning requerem grandes volumes de dados balanceados e diversificados para alcançar desempenho apropriado. Este estudo propõe estratégias para aprimorar o desempenho de algoritmos de classificação e segmentação de lesões podocitárias em imagens de glomérulos renais. Os métodos apresentados incorporam diferentes abordagens para melhorar a aprendizagem e a generalização dos modelos. Os resultados experimentais demonstraram que os métodos e modelos propostos impactaram positivamente o processo de análise, em comparação com modelos convencionais.


  • Mostrar Abstract
  • Podocytopathy is a pathological condition characterized by lesions in podocytes, specialized cells in the renal glomerulus responsible for blood filtration. These lesions impair kidney function and can progress to severe conditions such as glomerulosclerosis, proteinuria, and diabetic nephropathy. Detecting podocyte lesions in glomerular images presents significant challenges due to the labor-intensive nature of the task and the difficulty in distinguishing podocytes from other cell types. Computational pathology, supported by computational tools, aims to assist pathologists in analyzing these images. However, deep learning techniques require large, balanced, and diverse datasets to achieve optimal performance. This study proposes strategies to enhance the performance of classification and segmentation algorithms for podocyte lesion detection in renal glomerular images. The presented methods incorporate different approaches to improve model learning and generalization. Experimental results demonstrated that the proposed methods and models positively impacted the analysis process compared to conventional models.

3
  • GABRIEL SIQUEIRA RODRIGUES
  • Engenharia da Coordenação de Missões Multi-Robô no Domínio de Robôs de Serviço

  • Orientador : GENAINA NUNES RODRIGUES
  • MEMBROS DA BANCA :
  • GENAINA NUNES RODRIGUES
  • CELIA GHEDINI RALHA
  • ELISA YUMI NAKAGAWA
  • MARCO AUTILI
  • Data: 24/03/2025

  • Mostrar Resumo
  • Os robôs transformaram indústrias como a manufatura automotiva ao assumirem tarefas tediosas, repetitivas e perigosas dentro de ambientes fabris. Tradicionalmente, esses robôs são grandes máquinas operando em ambientes altamente controlados. No entanto, nos últimos anos, houve um crescimento significativo no desenvolvimento de robôs móveis projetados para atuar em espaços compartilhados com humanos, incluindo hospitais, hotéis e restaurantes. Conhecidos como robôs de serviço, esses sistemas são capazes de navegar em ambientes centrados em humanos e realizar tarefas como manipulação de objetos e inspeção do ambiente usando câmeras e sensores. Para explorar plenamente o potencial dos robôs de serviço em contextos sociais, é essencial estabelecer mecanismos eficazes de coordenação. No entanto, orquestrar múltiplos robôs em espaços compartilhados com humanos apresenta desafios substanciais de engenharia devido à natureza aberta desses ambientes e às incertezas inerentes que introduzem. Além disso, embora a garantia de qualidade seja crucial para esses sistemas, a simulação de sua lógica de coordenação é particularmente complexa devido à forte dependência de fatores ambientais. Esta tese avança o estado da arte na engenharia de sistemas multi-robô autônomos (MRS) no domínio dos robôs de serviço, com foco especial em arquitetura e simulação. Ela propõe soluções arquiteturais inovadoras para gerenciar a complexidade e a incerteza presentes em ambientes dinâmicos. Para isso, esta pesquisa introduz uma nova arquitetura, chamada MissionControl, projetada para facilitar o desenvolvimento e a coordenação de missões MRS. O MissionControl reduz a complexidade do sistema ao definir um modelo de componentes que estrutura o sistema em componentes encapsulados e reutilizáveis, com responsabilidades bem definidas. Além disso, ele integra modelos de componentes e de tempo de execução com processos de coordenação, priorizando modificabilidade, integrabilidade e autonomia. Uma implementação prototípica do MissionControl foi desenvolvida para comunicação entre robôs e ROS para execução de tarefas. A arquitetura foi avaliada por meio de experimentos controlados no simulador MORSE e inspeções sistemáticas baseadas em diretrizes de análise de arquitetura de software. Os resultados experimentais indicam uma melhoria nas taxas de sucesso das missões e uma redução nas falhas causadas por esgotamento de recursos, mesmo sob condições de incerteza. Por fim, esta tese contribui com um design de simulação leve chamado HMR Sim, projetado para avaliar a lógica de coordenação. O framework de simulação proposto é eficiente em termos de recursos e suporta a execução de testes por meio de uma linguagem específica de domínio (DSL), permitindo a validação sistemática dos comportamentos dos sistemas multi-robô.

     

  • Mostrar Abstract
  • Robots have transformed industries such as automotive manufacturing by taking over tedious, repetitive, and hazardous tasks within factory settings. Traditionally, these robots are large machines operating in highly controlled environments. However, in recent years, there has been a significant rise in the development of mobile robots designed to assist in human-shared spaces, including hospitals, hotels, and restaurants. Known as service robots, these systems are capable of navigating human-centric environments and performing tasks such as object manipulation and environmental inspection using cameras and sensors. To fully leverage the potential of service robots in social settings, effective coordination mechanisms must be established. However, orchestrating multiple robots in shared human spaces presents substantial engineering challenges due to the open-ended nature of these environments and the inherent uncertainties they introduce. Furthermore, while quality assurance is crucial for such systems, simulating their coordination logic is particularly complex due to its strong dependency on environmental factors. This thesis advances the state-of-the-art in engineering autonomous multi-robot systems (MRS) in the service robot domain, particularly on architecture and simulation. It proposes novel architectural solutions to manage the complexity and uncertainty inherent in dynamic environments. To this end, this research introduces a new architecture, MissionControl, designed to streamline the development and coordination of MRS missions. MissionControl mitigates system complexity by defining a component model that structures the system into encapsulated, reusable components with clear responsibilities. Additionally, it integrates both component and runtime models with coordination processes, prioritizing modifiability, integrability, and autonomy. A prototype implementation of MissionControl was developed for inter-robot communication and ROS for task execution. The architecture was evaluated through controlled experiments in the MORSE simulator and systematic inspections based on software architecture analysis guidelines. Experimental results indicate an improvement in mission success rates and a reduction in failures due to resource depletion, even under uncertain conditions. Lastly, this thesis contributes a lightweight simulation design called HMR Sim tailored for evaluating coordination logic. The proposed simulation framework is resource-efficient and supports test execution using a domain-specific language (DSL), enabling systematic validation of MRS behaviors.

4
  • Breno Gustavo Soares da Costa
  • Uma Arquitetura de Monitoramento em Fog Computing com Suporte à Orquestração de Serviços

  • Orientador : ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • MEMBROS DA BANCA :
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • ALBA CRISTINA MAGALHAES ALVES DE MELO
  • CELIA GHEDINI RALHA
  • EDSON NORBERTO CACERES
  • EUGENE FRANCIS VINOD REBELLO
  • Data: 28/03/2025

  • Mostrar Resumo
  • Fog Computing é um paradigma computacional que estende a Cloud Computing, fornecendo recursos de computação mais próximos dos usuários na borda da rede. O paradigma Fog Computing se caracteriza por uma infraestrutura distribuída e heterogênea, o que aumenta a complexidade do gerenciamento quando
    comparada à Cloud Computing. A orquestração de serviços e recursos é fundamental nesse contexto, lidando com a dinamicidade da infraestrutura e  garantindo o cumprimento dos Acordos de Nível de Serviço. A gestão da observabilidade é uma funcionalidade crucial para a orquestração, coletando informações sobre o status dos serviços, dos dispositivos e dos links de comunicação para permitir uma tomada de decisão rápida e eficaz. No entanto, a literatura sobre orquestração em Fog Computing, frequentemente, assume a existência de uma solução de gestão da observabilidade sem apresentar métodos de implementação, ou abordar os desafios. Adicionalmente, soluções de gestão da observabilidade existentes para Cloud Computing não são adequadas para ambientes Fog devido às suas particularidades. Há uma carência de trabalhos que abordem o aumento da observabilidade em Fog e o desafio de gerenciar diversos fluxos de dados heterogêneos em um ambiente com recursos restritos. Para suprir essas lacunas, esta tese propõe FogObserver, uma arquitetura de referência para sistemas de gestão da observabilidade em Fog, que lida com a coleta, o processamento e o armazenamento de dados de observabilidade. Ela gerencia fluxos de dados heterogêneos dos domínios de instrumentação (métricas, logs e traces) e utiliza um framework autoadaptável, capaz de reconhecer dinamicamente mudanças relevantes no ambiente e selecionar a melhor reação. A avaliação da proposta foi realizada por meio de um estudo de caso em um cenário real de cidades inteligentes. Os resultados demonstraram que é possível aumentar a observabilidade em Fog Computing de forma eficaz,
    adicionando um overhead baixo à infraestrutura e aos canais de comunicação. Por meio de estratégias customizadas para o contexto da aplicação, conseguiu-se uma redução de 80% no volume de dados de observabilidade, transmitidos dos dispositivos IoT para Fog, e o volume resultante representou menos de 1%
    do volume de dados transmitidos pela aplicação quando em operação.


  • Mostrar Abstract
  • Fog Computing is a computational paradigm that extends Cloud Computing, providing computing resources closer to users at the edge of the network. The Fog Computing paradigm is characterized by a distributed and heterogeneous infrastructure, which increases management complexity compared to Cloud Computing. The orchestration of services and resources is fundamental in this context, dealing with the dynamic nature of the infrastructure and ensuring compliance with Service Level Agreements. Observability management is a crucial functionality for orchestration, collecting information about the status of services, devices, and links of communication to allow quick and effective decision making. However, the literature on orchestration in Fog Computing often assumes the existence of an observability management solution without presenting implementation methods or addressing the challenges. Additionally, existing observability management solutions for Cloud Computing are not suitable for Fog environments due to their specificities. There is a lack of work addressing the increase in observability in Fog and the challenge of managing various heterogeneous data flows in an environment with restricted resources. To fill these gaps, this thesis proposes FogObserver, a reference architecture for observability management systems in Fog, which deals with the collection, processing, and storage of observability data. It manages heterogeneous data flows from the instrumentation domains (metrics, logs, and traces) and uses a framework that is self-adaptive, capable of dynamically recognizing relevant changes in the environment and selecting the best reaction. The proposal was evaluated through a case study in a real smart city scenario. The results demonstrated that it is possible to effectively increase observability in Fog Computing by adding a low overhead to the infrastructure and communication channels. Through customized strategies for the application context, a 80% reduction in the volume of observability data transmitted from IoT devices to Fog, and the resulting volume represented less than 1% of the data volume transmitted by the application while in operation.

5
  • João Bachiega Junior
  • Uma Proposta para a Descoberta e Alocação de Recursos Computacionais em Fog Computing

  • Orientador : ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • MEMBROS DA BANCA :
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • ALFREDO GOLDMAN VEL LEJBMAN
  • DANIEL HENRIQUES MOREIRA
  • LUCIA MARIA DE ASSUMPCAO DRUMMOND
  • MARISTELA TERTO DE HOLANDA
  • Data: 28/03/2025

  • Mostrar Resumo
  • A fog computing (computação em névoa) é um paradigma que permite o provisionamento de recursos e serviços computacionais na borda da rede, mais próximo dos dispositivos finais e usuários, com menor latência, complementando a cloud computing (computação em nuvem). A heterogeneidade e o grande número de dispositivos são desafios a serem superados pelo gerenciamento de recursos neste ambiente, que tem o objetivo de garantir que os recursos necessários estejam disponíveis no momento certo e no local adequado para que as tarefas sejam concluídas com sucesso. Assim sendo, entre as principais funcionalidades do gerenciamento de recursos estão a etapa de Descoberta que visa encontrar os recursos adequados; e a etapa de Alocação que objetiva selecionar, reservar e garantir o uso dos melhores recursos para a execução de uma dada carga de trabalho. Contudo, observou-se que as soluções propostas até o momento na literatura são incompletas, pois não consideram concomitantemente as perspectivas do usuário e do provedor, uma vez que elas possuem objetivos diferentes. Além disso, as soluções da literatura não levam em consideração que um gerenciamento de recursos eficiente em ambiente de fog computing deve considerar as capacidades computacionais e as características comportamentais e, portanto, devem ser tratados de forma diferenciada. Assim sendo, nesta tese é apresentada uma proposta para as etapas de Descoberta e Alocação de recursos que fazem parte do serviço de gerenciamento em um ambiente de fog computing. A proposta considera as capacidades computacionais e as características comportamentais, a partir das perspectivas do provedor e do usuário final. A validação das propostas foi realizada em ambientes reais e simulados. A proposta de descoberta de recursos trouxe resultados até 33% melhores quando comparada com outras  existentes na literatura em relação ao tempo de execução. Já a proposta de alocação de recursos em fog computing foi capaz de gerar resultados até 47% melhores em relação ao custo.


  • Mostrar Abstract
  • Fog computing is a paradigm that allows the provisioning of computing resources and services at the edge of the network, closer to end devices and users, with lower latency, complementing cloud computing. Heterogeneity and the large number of devices are challenges to be overcome by resource management in this environment, which aims to ensure that the necessary resources are available at the right time and in the right place so that tasks are completed successfully. Therefore, among the main functionalities of resource management are the Discovery stage, which aims to find the appropriate resources; and the Allocation stage, which aims to select, reserve, and ensure the use of the best resources for the execution of a given workload. However, it was observed that the solutions proposed so far in the literature are incomplete, as they do not simultaneously consider the perspectives of the user and the provider, since they have different objectives. Furthermore, the solutions in the literature do not take into account that efficient resource management in a fog computing environment must consider computational capabilities and behavioral characteristics and, therefore, must be treated differently. Therefore, this thesis presents a proposal for the Resource Discovery and Allocation steps that are part of the management service in a fog computing environment. The proposal considers computational capabilities and behavioral characteristics, from the perspectives of the provider and the end user. The proposals were validated in real and simulated environments. The resource discovery proposal brought results up to 33% better when compared to others in the literature concerning execution time. The resource allocation proposal in fog computing generated results up to 47% better concerning cost.

6
  • Ranyelson Neres Carvalho
  • Desenvolvimento de um Mecanismo Integrado para a
    Detecção e Mitigação de Ataques DDoS em Redes
    Definidas por Software

  • Orientador : JACIR LUIZ BORDIM
  • MEMBROS DA BANCA :
  • ANTONIO JORGE GOMES ABELÉM
  • EDUARDO ADILIO PELINSON ALCHIERI
  • JACIR LUIZ BORDIM
  • JO UEYAMA
  • JOAO JOSE COSTA GONDIM
  • Data: 07/05/2025

  • Mostrar Resumo
  • As redes definidas por software (do inglês, Software Defined Networking - SDN) são
    arquiteturas de redes que enfatizam a separação entre o plano de controle e o plano de
    dados, proporcionando uma série de benefícios, como o gerenciamento centralizado, a
    flexibilidade e a programabilidade da infraestrutura de rede. Apesar dos benefícios oferecidos
    pela arquitetura SDN, do ponto de vista da segurança, essa arquitetura introduziu
    novas vulnerabilidades devido à comunicação necessária entre esses planos, em virtude
    da separação deles. Os ataques distribuídos de negação de serviço (do inglês, Distributed
    Denial of Service - DDoS) representam um desafio significativo para esse tipo de rede, já
    que, nesta arquitetura, o controlador atua como um ponto central de controle e decisão,
    sendo responsável por gerenciar o tráfego e a configuração da rede. Assim, ele se torna
    um alvo comum para os ataques DDoS, já que sua paralisação, em função do volume
    massivo de tráfego malicioso proveniente desses ataques, resultará na exaustão da capacidade
    e processamento, levando à sua indisponibilidade e comprometendo a operação de
    toda a rede. As soluções presentes no estado da arte apresentaram diversas estratégias
    para reduzir os impactos dos ataques DDoS. Porém, ainda permanecem algumas lacunas,
    como a centralização das ações de detecção e mitigação no plano de controle, causando
    atrasos no processo para confirmar qualquer mudança no comportamento do tráfego associada a
    esses ataques e o aumento do volume de mensagens de controle encaminhadas
    ao controlador para realizar a identificação e a contenção desses ataques a rede. Além
    disso, muitas das estratégias desenvolvidas pelas soluções acabam penalizando uma parte
    significativa do tráfego legítimo, provocando bloqueios de forma indiscriminada. Este
    trabalho propõe um mecanismo de detecção e mitigação denominado DataControl-ML,
    que visa suprir essas lacunas. O mecanismo está organizado em dois procedimentos: (i)
    detecção e mitigação no plano de dados; e (ii) compartilhamento de informações globais
    por meio do plano de controle. O primeiro procedimento concentra-se na implementação
    de técnicas para identificar o tráfego malicioso próximo aos pontos de ingresso na rede,
    priorizar o tráfego de clientes com níveis de confiabilidade aceitáveis (legítimos) e bloquear
    (descartar) o tráfego daqueles com baixo valor de confiança (maliciosos), com base em
    estatísticas geradas pelos switches programáveis. O segundo procedimento visa o compartilhamento
    de informações globais, organizadas em ações de controle que incluem o
    bloqueio, a permissão sem prioridade associada ou a priorização dos clientes, determinadas
    a partir do estabelecimento de uma confiança global, por meio do controlador para o envio
    aos dispositivos de encaminhamento, promovendo uma abordagem híbrida (plano de dados e controle)
    por parte do mecanismo proposto, criando uma visão única da rede e um
    sistema de segurança mais abrangente. Os resultados experimentais obtidos mostraram
    que o DataControl-ML reduz cerca de 52,18% o tempo necessário para a confirmação de
    uma fonte maliciosa, responsável por gerar os ataques DDoS, quando comparado a outro
    mecanismo do estado da arte. Além disso, o mecanismo proposto diminui o volume de
    mensagens de controle enviadas ao controlador, o tempo de convergência para que os
    dispositivos de encaminhamento tenham informações sincronizadas e alcança uma acurácia de
    detecção e mitigação superior a 98%, reduzindo os impactos causados por esses
    ataques.


  • Mostrar Abstract
  • The software-defined networks (SDN) are network architectures that emphasize the separation of the control plane from the data plane, providing a series of benefits such as
    centralized management, flexibility and programmability of the network infrastructure.
    Despite the benefits offered by the SDN architecture, from a security point of view, this
    architecture introduced new vulnerabilities due to the communication necessary between
    these planes due to their separation. DDoS attacks (Distributed Denial of Service) represent a significant challenge for this type of network, as in this architecture, packet
    forwarding is based on matching the available flow table entries of the forwarding device.
    If there is no match in the flow table, switch encapsulates the packet header information and sends it to the controller, which returns this information requesting that a new
    corresponding flow entry be added to switch to for the packet to be transmitted to the
    destination. Attackers take advantage of this mode of operation to overload the controller
    and switch by sending a massive volume of malicious traffic (connection requests), which
    results in new entries in the switch flow table causing the memory overhead of the forwarding device and the capacity processing of the controller. State-of-the-art solutions
    present several strategies to reduce the impact of DDoS attacks. However, some gaps
    still remain, such as the centralization of actions (detection and mitigation) in the control
    plane, causing delays and overloads, and the indiscriminate blocking of traffic that ends
    up penalizing legitimate traffic. This work proposes the development of a detection and
    mitigation mechanism that enables faster actions to contain the flow of malicious traffic,
    through traffic mitigation and prioritization techniques that avoid penalizing legitimate
    participants. The proposal is organized into two stages: (i) detection and mitigation
    in the data plane; and (ii) sharing of information in the control plane. The first stage
    aims to identify malicious traffic close to network entry points and prioritize traffic from
    participants with acceptable (legitimate) reliability levels, through statistics generated by
    switches. During the development of this stage, some preliminary results were obtained,
    which demonstrated the ability of the proposed mechanism to reduce the impacts caused
    by a DDoS attack. The second stage (under development) will consist of sharing information in the control plane with the other switches, to promote a hybrid approach (data and control plane) by the solution, creating a single view of the network. This approach
    will therefore enable local decision-making based on shared global information, making
    all devices active equipment. The tests and metrics to be used to validate the proposal
    will be guided by the methods present in the literature, with the purpose of allowing
    comparisons.

7
  • FRANCISCO HANDRICK DA COSTA
  • On the Effectiveness of the Mining Android Sandbox Approach for Malware Detection

  • Orientador : RODRIGO BONIFACIO DE ALMEIDA
  • MEMBROS DA BANCA :
  • RODRIGO BONIFACIO DE ALMEIDA
  • GENAINA NUNES RODRIGUES
  • VANDER RAMOS ALVES
  • BRENO ALEXANDRO FERREIRA DE MIRANDA
  • EDUARDO LUZEIRO FEITOSA
  • Data: 12/05/2025

  • Mostrar Resumo
  • Devido à popularidade da plataforma Android, aliada às facilidades em aplicar técnicas de re-engenharia em aplicativos Android (apps), agentes maliciosos têm se dedicado a explorar formas de ataques que visam monetizar a partir de aplicativos legítimos e violar aspectos de privacidade dos usuários. Esse cenário atraiu a atenção de pesquisadores para o desenvolvimento de técnicas que possibilitam mitigar algumas falhas de segurança ou estratégias de ataque para aplicativos Android. Uma recente iniciativa foi proposta por Jamrozik et al. e introduziu o conceito de sandbox mining. Nessa proposta, em uma primeira fase descrita como mineração, ferramentas geradoras de testes são utilizadas para explorar o comportamento de aplicativos Android, a partir de chamadas à APIs sensíveis. Em um segundo momento, a proposta aplica um sandbox que limita qualquer comportamento diferente daquele descoberto durante a primeira fase de mineração. Com a solução, chamadas indevidas a APIs sensíveis em um segundo momento, são descobertos na fase de mineração, e são bloqueados por completo, assegurando maior segurança aos usuários desses aplicativos. Posteriormente, Bao et al. complementou o trabalho de Jamrozik et al. avaliando a efetividade da proposta na detecção de comportamentos maliciosos, como também explorou a capacidade exploratória de diferentes ferramentas de testes para mineração de sandboxes. Entretanto, nessa pesquisa, os autores não se aprofundaram na contribuição das análises estáticas e dinâmicas para a mineração de sandbox, além de apresentar seus resultados baseado em um dataset limitado, com reduzida representatividade de familias de malware. Portanto, nessa Tese o nosso objetivo inicial foi o de melhor entender a proposta de mineração em sandobox, explorando os papeis das análises estática e dinâmicas no contexto da solução. Após documentar a contribuição de ambas análises na mineração de sandbox, em um segundo estudo nos propomos a investigar, se a proposta apresentava a mesma eficiência em termos de detecção de malware, quando submetido a um dataset mais abrangente e diversificado, que os de trabalhos anteriores. Os resultados revelaram que a precisão da solução na identificação de aplicações maliciosas caiu significante: F1 caiu de 0.90 em estudos anteriores, para 0.54 no dataset mais abrangente. Após uma avaliação, descobrimos que a baixa eficácia foi motivados pela presente de amostras pertencentes a específicas famílias de malware, que revelaram uma fragilidade na proposta. Tal fato nos motivou a explorar uma solução complementar, que fosse capaz de suprimir a deficiêcia apontadas por esse estudo. Assim, em um terceiro estudo apresentamos uma proposta que explorou a análise de fluxo de rede com o auxilio de técnicas de Machine Learning (ML). O método se mostrou mais eficiente na classificação de malwares, quando comparado com a técninca de mineração de sandbox, atingindo um F1 de 0.85, quando aplicado ao dataset diversificado. O estudo apontou ainda que as famílias de malware que tiveram baixa taxas de detecção na solução de mineração de sandbox, tiveram suas atividades maliciosas melhor apontadas pela análise de fluxo de rede, com o auxilio de modelos de ML.


  • Mostrar Abstract
  • Due to the widespread popularity of the Android platform and the relative ease of applying reverse-engineering techniques to Android apps, malicious actors often exploit vulnerabilities to monetize legitimate applications and compromise user privacy. This growing threat has prompted researchers to develop new techniques to mitigate security flaws and combat attack strategies targeting Android applications. A recent initiative proposed by Jamrozik et al. introduced the concept of sandbox mining. In this approach, a first phase called mining employs test generation tools to explore Android application behavior by analyzing calls to sensitive APIs. In a second phase, a sandbox is applied to restrict any behavior that deviates from what was observed during the mining phase. This solution detects inappropriate calls to sensitive APIs during the secure mining phase and subsequently blocks them entirely, enhancing security for users of these applications. Later, Bao et al. expanded on Jamrozik et al.’s work by evaluating the proposal’s effectiveness in detecting malicious behavior and assessing the exploratory capabilities of different testing tools for sandbox mining. However, their study did not thoroughly investigate the contributions of static and dynamic analysis to sandbox mining. Additionally, their findings were based on a limited dataset with insufficient representation of malware families. In this thesis, our initial objective was to evaluate the sandbox mining proposal by examining the roles of static and dynamic analysis within its framework. After documenting the contributions of both approaches, we conducted a second study to assess whether the solution maintained similar malware detection efficiency when applied to a more comprehensive and diverse dataset than those used in prior work. The results showed a significant decline in detection accuracy: F1-score dropped from 0.90 (in previous studies) to 0.54 on the expanded dataset. Upon further analysis, we determined that this reduced performance stemmed from the presence of samples belonging to specific malware families, exposing a critical weakness in the approach. This finding motivated us to explore a complementary solution capable of addressing the identified limitation. In a third study, we proposed a network flow analysis approach enhanced by Machine Learning (ML) techniques. This method demonstrated a better efficiency in malware classification compared to the sandbox mining technique, achieving an F1-score of 0.85 on the diversified dataset. Notably, the study revealed that malware families with low detection rates under sandbox mining were more effectively identified through network flow analysis, leveraging ML models to detect malicious activities.

8
  • Harley Vera Olivera
  • Otimização de Esquemas NoSQL: Avaliação Baseada em Métricas e Algoritmo VNS

  • Orientador : MARISTELA TERTO DE HOLANDA
  • MEMBROS DA BANCA :
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • DANIEL CARDOSO MORAES DE OLIVEIRA
  • EDNA DIAS CANEDO
  • RONALDO DOS SANTOS MELLO
  • Data: 30/05/2025

  • Mostrar Resumo
  • O problema da otimização de esquemas em bancos de dados ganhou relevância com a migração de cargas de trabalho para a nuvem, um processo que expôs ineficiências nas configurações e esquemas tradicionais. Em bancos de dados NoSQL orientados a documentos, a definição do esquema influencia diretamente o armazenamento, a velocidade das consultas e a escalabilidade do sistema. No entanto, determinar a configuração ideal é um desafio devido ao elevado número de combinações possíveis entre coleções e suas relações. Atualmente, os esquemas costumam ser avaliados pelo tempo de resposta das operações CRUD (criar, ler, atualizar e excluir), o que dificulta a análise de todas as alternativas possíveis por causa do alto custo computacional e da complexidade envolvida. Neste trabalho, implementou-se o algoritmo metaheurístico VNS (Variable Neighborhood Search) para identificar soluções eficientes a partir de um conjunto de consultas e uma configuração inicial. Para tanto, definiram-se métricas de avaliação —completude, padrões de acesso e redundância— que quantificam a qualidade dos esquemas, considerando os relacionamentos referenciados e aninhados com uma ponderação específica. Integradas como função objetivo no algoritmo, essas métricas possibilitam uma avaliação mais ampla dos esquemas, diminuindo a dependência exclusiva do tempo de resposta das operações CRUD e focando em aspectos estruturais. Operações de perturbação específicas foram projetadas para explorar eficientemente o espaço de busca, diversificando as soluções e prevenindo a convergência para mínimos locais. Assim, o algoritmo analisa diferentes estruturas, otimiza a complexidade do esquema e garante suporte completo às consultas definidas, alcançando uma solução eficaz no nível lógico de modelagem.


  • Mostrar Abstract
  • Data modeling for databases is an essential step in the application development process. Since databases began moving to the cloud, best practices such as configuration settings, schema design, or data access not being correctly applied have made data modeling a critically important issue. But, since a given problem to be modeled has many candidate models, how can we ensure that the best or most optimal model is found? For this reason, this work proposes a methodology to find the most optimal data model for document-oriented NoSQL databases. Meta-heuristic algorithms and model evaluation metrics will be evaluated to achieve the objective. As a result, it is expected to go through the most significant number of solution candidates in the search space to guarantee the best or most optimal model.

2024
Dissertações
1
  • CARLOS JOEL TAVARES DA SILVA
  • A Multi-robot System Architecture with Multi-agent Planning.

  • Orientador : CELIA GHEDINI RALHA
  • MEMBROS DA BANCA :
  • CELIA GHEDINI RALHA
  • GENAINA NUNES RODRIGUES
  • RICARDO PEZZUOL JACOBI
  • YARA A. RIZK
  • Data: 01/02/2024

  • Mostrar Resumo
  • Garantir o cumprimento de objetivos em um Sistema Multi-Robô (SMR) é um desafio, especialmente considerando operações em ambientes dinâmicos. Apesar da literatura sobre Planejamento Multiagente (PMA) apresentar diversas abordagens para resolver esse problema, há espaço para melhorias. Um desafio em aberto em SMR está relacionado com o plano de recuperação. Assim, este trabalho integra o PMA a SMR, apresentando a arquitetura Multi-Robot System Architecture with Planning (MuRoSA-Plan), que tem foco na recuperação de planos. Para ilustrar a arquitetura, um caso de coordenação de missão multi-robô em serviços de saúde utiliza o Robot Operating System (ROS2) e o planejador IPyHOP com redes de tarefas hierárquicas. Experimentos com o protótipo MuRoSA-Plan apresentam melhorias em comparação ao Planning System Framework para ROS2 - framework PlanSys2. Os resultados experimentais mostram que o MuRoSA-Plan gera planos adaptados ao tempo de execução, mitigando interrupções de missão, satisfazendo os objetivos do caso de serviço de saúde, indicando uma solução promissora para recuperação de planos no MRS.


  • Mostrar Abstract
  • Guaranteeing goal achievement in a Multi-Robot System (MRS) is challenging, especially considering operations in dynamic environments. Despite the Multi-Agent Planning (MAP) literature presenting several approaches to solve this problem, there is space for improvement. One open challenge in MRS is related to plan recovery. Thus, this work integrates MAP to MRS, presenting the Multi-Robot System Architecture with Planning (MuRoSA-Plan) focusing on plan recovery. To illustrate the architecture, a multi-robot mission coordination case in healthcare service uses the Robot Operating System (ROS2) and IPyHOP planner with hierarchical task networks. Experiments with the MuRoSA-Plan prototype present improvement compared to the Planning System Framework for ROS2 - PlanSys2 framework. The experimental results show that MuRoSA-Plan generates runtime-adapted plans mitigating mission disruptions, satisfying the goals of the healthcare service case, indicating a promising solution for plan recovery in MRS.

2
  • JAQUELINE GUTIERRI COELHO
  • Um banco de dados contendo RNAs não-codificantes envolvidos em câncer colorretal.

  • Orientador : MARIA EMILIA MACHADO TELLES WALTER
  • MEMBROS DA BANCA :
  • MARIA EMILIA MACHADO TELLES WALTER
  • MARISTELA TERTO DE HOLANDA
  • NALVO FRANCO DE ALMEIDA JUNIOR
  • Data: 04/04/2024

  • Mostrar Resumo
  • Na natureza, existem dois principais ácidos nucleicos: o DNA e o RNA. O dogma central da biologia molecular descreve o processo pelo qual o DNA é transcrito em RNA, que por sua vez é traduzido em proteínas. Contrariando a visão clássica desse dogma, foi descoberto que a transcrição do DNA também gera ácidos nucleicos não codificantes, como os microRNAs e os longos RNAs não codificantes. Esses ncRNAs desempenham papéis essenciais na regulação gênica e em outros processos celulares, destacando a complexidade da maquinaria genética e a diversidade funcional dos ncRNAs na biologia celular. Neste contexto, a otimização e aprimoramento do Banco de Dados Perci, uma fonte centralizada de informações sobre o câncer colorretal (CRC), têm o potencial de impulsionar significativamente a pesquisa nessa área. Esse aprimoramento é importante para facilitar a compreensão dos mecanismos celulares subjacentes à detecção, progressão e prognóstico do tumor. Outrossim, este estudo se propõe a compilar dados relevantes sobre o câncer colorretal, com foco nos ncRNAs, visando disponibilizá-los para consulta pública. Foi desenvolvido um banco de dados online abrangendo cinco descritores de CRC e três categorias específicas de ncRNAs: ncRNAs longos (lncRNAs), ncRNAs circulares longos (circ ncRNAs) e microRNAs (miRNAs), juntamente com características transcriptômicas associadas. Os descritores de câncer contemplados incluem câncer colorretal, câncer de cólon, adenocarcinoma, tumor e metástase hepática de câncer colorretal. Perguntas como "Quais circRNAs estão implicados na neoplasia colorretal?", "Quais circRNAs e miRNAs estão associados à metástase hepática do câncer colorretal?" e "Dado um lncRNA específico (H19), quais descritores de câncer estão relacionados a esse ncRNA?" podem ser respondidas utilizando nosso banco de dados. O sistema web pode ser acessado em: http://percidatabase.com.br/.


  • Mostrar Abstract
  • In nature, there are two main nucleic acids: DNA and RNA. The central dogma of molecular biology describes the process by which DNA is transcribed into RNA, which in turn is translated into proteins. Contrary to the classical view of this dogma, it has been discovered that DNA transcription also generates non-coding nucleic acids, such as microRNAs and long non-coding RNAs. These ncRNAs play essential roles in gene regulation and other cellular processes, highlighting the complexity of the genetic machinery and the functional diversity of ncRNAs in cell biology. In this context, the optimization and enhancement of the Perci Database, a centralized and reliable source of information on colorectal cancer (CRC), has the potential to significantly boost research in this area. This improvement is important to facilitate understanding of the cellular mechanisms underlying tumor detection, progression and prognosis. Furthermore, this study aims to compile relevant data on colorectal cancer, with a focus on ncRNAs, in order to make them available for public consultation. An online database was developed covering five CRC descriptors and three specific categories of ncRNAs: long ncRNAs (lncRNAs), long circular ncRNAs (circ ncRNAs) and microRNAs (miRNAs), along with associated transcriptomic features. The cancer descriptors covered include colorectal cancer, colon cancer, adenocarcinoma, tumor and liver metastasis of colorectal cancer. Questions such as "Which circRNAs are implicated in colorectal neoplasia?", "Which circRNAs and miRNAs are associated with colorectal cancer liver metastasis?" and "Given a specific lncRNA (H19), which cancer descriptors are related to this ncRNA?" can be answered using our database. The web system can be accessed at: http://percidatabase.com.br/.

3
  • WEDREY NUNES DA SILVA
  • Análise da Cybersickness através de Biosinais: uma abordagem com Machine Learning Simbólico

  • Orientador : RICARDO PEZZUOL JACOBI
  • MEMBROS DA BANCA :
  • RICARDO PEZZUOL JACOBI
  • CELIA GHEDINI RALHA
  • TIAGO BARROS PONTES E SILVA
  • THIAGO MALHEIROS PORCINO
  • Data: 19/04/2024

  • Mostrar Resumo
  • A Cybersickness (CS) representa um dos principais obstáculos para a utilização e adoção
    da Realidade Virtual (VR). Os sintomas associados à CS podem variar de pessoa para
    pessoa e incluem: náusea, vertigem, fadiga ocular e dor de cabeça, podendo durar de
    alguns minutos até horas após a exposição à VR. Embora a incidência de CS relatada
    entre os usuários de VR varie, estudos indicam que uma grande parcela da população,
    cerca de 40% a 60% podem apresentar sintomas moderados a graves de CS. Um dos
    principais obstáculos para garantir o conforto durante o uso de sistemas imersivos é a
    CS, que ocorre com frequência ao utilizar dispositivos como os Head-mounted Display
    (HMD). Apesar de existirem várias teorias sobre as possíveis causas da CS, não há um
    método fácil ou sistemático para medi-la e quantificá-la. É comum que os pesquisadores
    empreguem medidas subjetivas para identificar a intensidade da CS, podendo ser medida
    por meio de questionários autorrelatados pré e pós-experiência, como o Virtual reality
    sickness questionnaire (VRSQ) [1]. Em estudos anteriores, foram empregadas diversas
    abordagens para mensurar a intensidade da CS, por meio da utilização de medidas sub-
    jetivas e objetivas. Segundo pesquisadores, a CS tem um impacto significativo sobre os
    sinais fisiológicos, incluindo onda delta do EEG, HR, HRV, GSR e EGG, os quais apre-
    sentam uma correlação significativa com essa condição. Este trabalho tem como objetivo
    geral investigar as alterações fisiológicas associadas à CS em jogos de realidade virtual,
    realizando a coleta de informações do perfil do usuário, do jogo e também dos biosinais:
    (ECG, EDA e ACC), do total de 30 pessoas saudáveis. Os participantes ficarão imersos,
    através de dois jogos de VR, sendo o primeiro de carro de corrida e o segundo de voo.
    Será ainda utilizado um classificador de ML Simbólico para detectar as potenciais causas
    de CS ocorridas durante os experimentos de VR, baseado nos dados de perfil, do jogo e
    biosinais. Este trabalho pretende validar a hipótese de que os sinais fisiológicos podem
    ser eficazes na elaboração de estratégias para reduzir os sintomas da CS.


  • Mostrar Abstract
  • Cybersickness (CS) represents one of the main obstacles to the use and adoption of Vir-
    tual Reality (VR). Symptoms associated with CS can vary from person to person and
    include: nausea, vertigo, eyestrain and headache, and can last from a few minutes to
    hours after exposure to RV. Although the reported incidence of CS among users of VR
    varies, studies indicate that a large portion of the population, approximately 40% to 60%
    may experience moderate to severe symptoms of CS. One of the main obstacles to ensure
    comfort when using immersive systems is CS, which often occurs when using devices such
    as Head-mounted Display (HMD). Although there are several theories about the possible
    causes of CS, there is no easy or systematic method to measure and quantify it. It is com-
    mon for researchers to use subjective measures to identify the intensity of CS, which can
    be measured through pre- and post-experience self-reported questionnaires, such as the
    Virtual reality sickness questionnaire (VRSQ) [1]. In previous studies, several approaches
    were used to measure the intensity of CS, using subjective and objective measures. Ac-
    cording to researchers, CS has a significant impact on physiological signals, including
    the delta wave of EEG, HR, HRV, GSR and EGG, which have a significant correlation
    with this condition. The general objective of this work is to investigate the physiological
    alterations associated with CS in virtual reality games, collecting information from user
    profile, game and also biosignals (ECG, EDA and ACC), from the total of 30 healthy
    people. Participants will be immersed through two VR games, the first in a racing car
    and the second in a flight. A Symbolic ML classifier will also be used to detect the poten-
    tial causes of CS that occurred during the VR experiments, based on profile, game and
    biosignal data. This work intends to validate the hypothesis that physiological signals
    can be effective in the elaboration of strategies to reduce the symptoms of CS.

4
  • LUCAS SOUZA SAMPAIO NUNES
  • Algoritmo de Fatoração de Matrizes Não-negativas para Aprendizado positivo não-supervisionado

  • Orientador : THIAGO DE PAULO FALEIROS
  • MEMBROS DA BANCA :
  • EDISON ISHIKAWA
  • LI WEIGANG
  • THIAGO DE PAULO FALEIROS
  • WALLACE ANACLETO PINHEIRO
  • Data: 02/09/2024

  • Mostrar Resumo
  •  

    A rotulagem de dados para treinamento de modelos de aprendizado de máquina está se tornando cada vez mais inviável devido ao alto volume de dados disponíveis e continuamente sendo produzidos.Portanto, pesquisas atuais se concentram na análise e investigação de técnicas de resolução do problema dePositive Unlabeled Learning(PUL), que podem produzir um desempenho satisfatório de classificação, mesmo com uma pequena porção de dados rotulados. Neste trabalho, é proposta uma adaptação estrutural do algoritmo de Non-negative Matrix Factorization(NMF), aplicada a problemas de PUL e denominada NMFPUL, a fim de aprimorar o desempenho da classificação de dados textuais. O NMF é uma técnica usada para a fatoração de matrizes e geralmente é utilizada para redução de dimensionalidade. Esta pesquisa aplica o algoritmo proposto em vários conjuntos de dados textuais, contendo milhares de documentos e termos, considerando diferentes quantidades
    de dados rotulados, variando de 1 a 30 documentos rotulados na classe positiva.Para os conjuntos de dados menores, o algoritmo proposto apresentou desempenho de classificação próximo às outras técnicas de ponta, enquanto, nos conjuntos de dados maiores, o desempenho do NMFPUL se destacou, obtendo uma melhoria de 10% 30% em relação às outras técnicas, sendo a maior diferença observada quando há uma menor  quantidade de documentos rotulados.O uso do NMF envolve a aplicação de uma função objetivo para convergir a matriz documento-palavra ao produto das matrizes documento-tópico e tópico-palavra.Essas técnicas de convergência podem ser utilizadas em métodos de aprendizado profundo, desdobrando as iterações do algoritmo em camadas da rede. Portanto, também neste trabalho, será desenvolvida uma variação do algoritmo NMF para
    aprendizado profundo, oDeep Non-Negative Matrix Factorizationou Deep NMF, aplicado a dados PU, através de método deunfoldingpara o NMF, com metodologia descrita no presente trabalho, para comparar com outras técnicas de ponta e identificar melhorias no desempenho da classificação de dados textuais.


  • Mostrar Abstract
  •  

    The data labeling for machine learning models training is more and more impracticable, in a manual way, due to the high volume of data available and that is continuously produced.So, the current research stick to the analysis and investigation of Positive Unlabeled Learning(PUL) problem solving techniques, which can produces satisfactory classification performance, even having a small portion of data labeled.In this work, a structural adaptation to theNon-Negative Matrix Factorization(NMF) algorithm applied to PUL, denominated NMFPUL, is proposed in order to enhance the performance of text data classification. NMF is a technique used for matrix factorization and usually used to reduce dimensionality.This research applies the algorithm proposed in several
    text datasets, containing thousands of documents and terms, considering different amount of labeled data, varying from1to30labeled documents on the positive class. For the smallest datasets, the proposed algorithm had performance of classification close to those other state-of-the-art techniques, while, on larger datasets, the performance of NMFPUL stood out, having a 10% to 30% over other techniques, having the biggest difference when there are less quantity of labeled documents.The use of NMF involves applying a objective function to converge the matrix document-term to the product of document-topic and topic-term matrices.Those convergence techniques could be used in deep learning methods, unrolling the algorithm iterations into layers of the network. So, also, in this work, a variation of NMF for deep learning, theDeep Non-Negative Matrix Factorization or Deep NMF, is developed and applied to PU data, to compare with others state-of-the-art techniques in order to identify improvements to the performance of textual data  classification.

5
  • Helena Schubert da Incarnação Lima da Silva
  • A Framework for Automated Parallel Execution of Scientific Multi-Workflow Applications in the Cloud with Work Stealing

  • Orientador : ALBA CRISTINA MAGALHAES ALVES DE MELO
  • MEMBROS DA BANCA :
  • ALBA CRISTINA MAGALHAES ALVES DE MELO
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • RICARDO PEZZUOL JACOBI
  • LUCIA MARIA DE ASSUMPCAO DRUMMOND
  • Data: 08/10/2024

  • Mostrar Resumo
  • Workflows científicos são executados em diversos laboratórios de pesquisa todos os dias em vários continentes, contribuindo significativamente para os avanços da Ciência. Na maioria das vezes, os workflows são executados por scripts desenvolvidos de maneira ad hoc em infra-estruturas computacionais defasadas. Na presente Dissertação de Mestrado, visamos propor e avaliar um framework para execução automática de aplicações compostas por múltiplos workflows científicos na nuvem AWS. Para tirar proveito do paralelismo, o framework proposto executa-se em plataforma com diversos nodes computacionais e várias threads em cada nodo. Adicionalmente, como existe um grande número de operações de E/S nestes workflows, dois tipos de sistema de arquivos serão usados (compartilhado e local). Finalmente, propomos uma estratégia multi-nível de roubo de trabalho para reduzir o desbalanceamento de carga. Nossa resultados mostram que a estratégia paralela combinada ao roubo de trabalho contribuem para a redução significativa de tempo de execução.


  • Mostrar Abstract
  • Cyber-physical systems (CPS) such as satellites, self-driving cars, service robots, and IoTs are in our daily lives. These systems must satisfy requirements specifying their operation over time. During the development of such systems, designers and engineers must test whether the implementation meets its specifications. In addition, in the case of a violation, they need to identify and diagnose where the failure comes from. Understanding such violations is especially crucial in safety-critical systems. This work presents a novel technique to diagnose any system using only its requirements and test traces. Leveraging techniques like trace-checking and genetic programming, we deliver an informative diagnosis. The diagnosis shows to engineers what changes are sufficient to satisfy the violation requirement. The user can also customize the approach to focus on specific information relevant to the user. We evaluate our approach in two verticals: accuracy and efficiency. We evaluate the capability of our approach in delivering informative diagnoses and the time it takes to provide these diagnoses. Our approach shows that it can produce an informative output for most of our experiments in a reasonable time. The tool exceeded its time budget for the remaining experiments, not producing any diagnosis.

6
  • Gabriel Frutuoso Pereira Araujo
  • Trace-Diagnostic for Signal Temporal Properties: An Evolutionary Approach

  • Orientador : GENAINA NUNES RODRIGUES
  • MEMBROS DA BANCA :
  • GENAINA NUNES RODRIGUES
  • MARCELO ANTONIO MAROTTA
  • RODRIGO BONIFACIO DE ALMEIDA
  • LARS GRUNSKE
  • Data: 28/10/2024

  • Mostrar Resumo
  • Sistemas ciber-físicos (CPS), como satélites, carros autônomos, robôs de serviço e IoTs, estão presentes em nossas vidas diárias. Esses sistemas devem atender a requisitos que especificam seu funcionamento ao longo do tempo. Durante o desenvolvimento de tais sistemas, designers e engenheiros devem testar se a implementação atende às suas especificações. Além disso, em caso de violação, é necessário identificar e diagnosticar de onde vem a falha. Compreender tais violações é especialmente crucial em sistemas críticos de segurança. Este trabalho apresenta uma técnica inovadora para diagnosticar qualquer sistema utilizando apenas seus requisitos e traços de teste. Aproveitando técnicas como verificação de traços e programação genética, fornecemos um diagnóstico informativo. O diagnóstico mostra aos engenheiros quais mudanças são suficientes para satisfazer o requisito violado. O usuário também pode personalizar a abordagem para focar em informações específicas relevantes para o seu contexto. Nós avaliamos nossa abordagem em duas vertentes: acurácia e eficácia. Avaliamos a capacidade de nossa abordagem em fornecer diagnósticos informativos e o tempo necessário para gerar esses diagnósticos. Nossa abordagem mostrou que pode produzir um resultado informativo para a maioria de nossos experimentos em um tempo razoável. A ferramenta excedeu o limite de tempo em alguns experimentos, não produzindo diagnóstico nesses casos.


  • Mostrar Abstract
  • Cyber-physical systems (CPS) such as satellites, self-driving cars, service robots, and IoTs are in our daily lives. These systems must satisfy requirements specifying their operation over time. During the development of such systems, designers and engineers must test whether the implementation meets its specifications. In addition, in the case of a violation, they need to identify and diagnose where the failure comes from. Understanding such violations is especially crucial in safety-critical systems. This work presents a novel technique to diagnose any system using only its requirements and test traces. Leveraging techniques like trace-checking and genetic programming, we deliver an informative diagnosis. The diagnosis shows to engineers what changes are sufficient to satisfy the violation requirement. The user can also customize the approach to focus on specific information relevant to the user. We evaluate our approach in two verticals: accuracy and efficiency. We evaluate the capability of our approach in delivering informative diagnoses and the time it takes to provide these diagnoses. Our approach shows that it can produce an informative output for most of our experiments in a reasonable time. The tool exceeded its time budget for the remaining experiments, not producing any diagnosis

7
  • LUCAS DALLE ROCHA
  • Análise Comparativa de Leis de Proteção de Dados e Frameworks de Privacidade: Otimizando Soluções para Conformidade com LGPD e Leis Internacionais de Compartilhamento de Dados

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • CARLA TACIANA LIMA LOURENÇO SILVA
  • EDNA DIAS CANEDO
  • GENAINA NUNES RODRIGUES
  • MARCELO ANTONIO MAROTTA
  • Data: 18/11/2024

  • Mostrar Resumo
  • \textbf{Contexto:} No cenário atual de globalização e interconectividade, organizações e desenvolvedores enfrentam um  desafio complexo para garantir a conformidade com as diversas leis de privacidade do mundo. Com a troca de dados transfronteiriça sendo uma prática comum, não basta estar em conformidade apenas com a legislação local, que é a Lei Geral de Proteção de Dados (LGPD) no Brasil, mas é preciso entender e cumprir o máximo possível de regulamentações internacionais para garantir a proteção e a privacidade de dados dos usuários e evitar sanções administrativas. \textbf{Objetivo:} O objetivo principal deste trabalho é  construir uma ferramenta abrangente para auxiliar organizações e desenvolvedores a alcançarem a conformidade com várias leis de privacidade, incluindo a LGPD, \textit{General Data Protection Regulation} (GDPR), \textit{American Data Privacy and Protection Act} (ADPPA) e \textit{Australian Privacy Act}, juntamente com os dois frameworks de privacidade, Privacy by Design e ISO/IEC 29100. Dessa forma, são exploradas semelhanças e diferenças das diretrizes, além dos desafios apontados pelos desenvolvedores e suas organizações no processo de conformidade com as legislações. \textbf{Método:} Realizamos uma Revisão Sistemática de Literatura (RSL) para identificar os pontos de convergência e divergência entre as leis de privacidade de dados, bem como as dificuldades das organizações em aplicá-las. Os pontos identificados foram inseridos em um quadro comparativo por meio de análise qualitativa da RSL e os desafios foram categorizados e codificados. Quanto aos desafios, foi realizado um \textit{survey} para validá-los em um contexto brasileiro e, a partir de teoria fundamentada, reformular a categorização dessas dificuldades. Já para as comparações das leis, foi aplicado o método de Framework Analysis, que permite a codificação e indexação dos principais pontos das legislações, a fim de correlacioná-los com os frameworks estudados e propor a ferramenta que auxiliará as organizações no processo de conformidade. \textbf{Resultados:} A pesquisa revelou que a maior dificuldade das organizações e dos desenvolvedores reside na escassez de conhecimento sobre as leis, tanto teórico quanto prático. Assim, ainda que as legislações sejam parecidas em diversos pontos (como LGPD e GDPR), os desenvolvedores não as compreende em sua completude e apresentam desafios quanto à tradução da lei para um contexto técnico, que é presente desde a etapa de elicitação de requisitos. \textbf{Conclusão:} Essa pesquisa contribui para a compreensão mais clara das implicações das leis de privacidade de dados em um contexto globalizado e oferece orientações práticas aos profissionais de TIC para lidar com os desafios associados à conformidade com essas regulamentações.


  • Mostrar Abstract
  • \textbf{Context:} In the current scenario of globalization and interconnectedness, organizations and developers face the complex challenge of ensuring compliance with multiple privacy laws. With cross-border data exchange being a common practice, it is not enough to comply solely with local legislation, such as the General Data Protection Law (LGPD) in Brazil, but it is necessary to understand and comply with as many international regulations as possible to ensure the protection and privacy of user data and avoid administrative sanctions. \textbf{Objective:} In this study, we aim to construct a comprehensive tool to aid organizations and developers in achieving compliance with multiple privacy laws, including LGPD, the General Data Protection Regulation (GDPR), the American Data Privacy and Protection Act (ADPPA), and the Australian Privacy Act, alongside two renowned privacy frameworks, Privacy by Design and ISO/IEC 29100. In this way, similarities and differences in the guidelines are explored, as well as the challenges identified by developers and their organizations in the compliance process with the laws. \textbf{Method:} Initially, a Systematic Literature Review (SLR) was conducted to identify points of convergence and divergence between the laws, as well as the difficulties organizations face in applying them. Relevant topics were inserted into a comparative framework through qualitative analysis of the SLR, and challenges were categorized and coded. Regarding the challenges, a survey was conducted to validate them in a Brazilian context and, based on grounded theory, reformulate the categorization of these difficulties. As for the comparisons of the laws, the Framework Analysis method was applied, which allows coding and indexing of the main points of the legislations to correlate them with the studied frameworks and propose the tool that aids organizations in the compliance process. \textbf{Results:} The research revealed that the greatest difficulty for organizations and developers lies in the scarcity of knowledge about the laws, both theoretically and practically. This means that, even though the legislations are similar in many points (such as LGPD and GDPR), developers do not fully understand them and face challenges in translating the law into a technical context, which is present from the requirements elicitation stage. \textbf{Conclusion:} This dissertation contributes to a clearer understanding of the implications of privacy laws in a globalized context and offers practical guidance to deal with the challenges associated with compliance with these complex regulations.

8
  • Bruno Matissek Worm
  • Evolution-Aware Static Analysis of Software Product Lines

  • Orientador : VANDER RAMOS ALVES
  • MEMBROS DA BANCA :
  • GENAINA NUNES RODRIGUES
  • RALF LÄMMEL
  • RODRIGO BONIFACIO DE ALMEIDA
  • VANDER RAMOS ALVES
  • Data: 27/11/2024

  • Mostrar Resumo
  • A necessidade de lidar com a variabilidade durante a análise das Linhas de Produtos de
    Software (LPS) é intrínseca, pois o número de combinações de produtos válidos pode
    ser uma função exponencial em relação ao número de características. Além disso, à
    medida que uma LPS evolui, os resultados das análises anteriores poderiam ser usados
    para otimizar os cálculos. Entretanto, estas oportunidades de reúso são frequentemente
    descartadas pelas técnicas de análise de LPS presentes no atual estado da arte. Este
    trabalho propõe um método para embutir memoização em análises estáticas de Control-
    Flow Graph (CFG) implementadas em Haskell e reescritas para serem aplicadas em LPS.
    O método memoizado proposto foi usado para transformar seis análises estáticas de CFG
    levantadas para LPSs, e comparou-se o desempenho destas em relação às suas contrapartes
    sem memoização em um conjunto de dez versões da LPS BusyBox. Verificou-se que esta
    técnica de memoização foi eficiente em reusar os resultados das análises aplicadas em
    revisões anteriores, com reduções de tempo total computando análises de até duas ordens
    de magnitude em relação às análises sem memoização, tendo impacto limitado no uso de
    armazenamento dos resultados memoizados.


  • Mostrar Abstract
  • Handling variability in Software Product Line (SPL) analyses is essential due to the vast
    number of possible valid product combinations, which can grow exponentially with the
    number of features. Furthermore, as an SPL evolves, results from previous analyses could
    be used to optimize computations. However, these reuse opportunities are frequently
    discarded by current state-of-the-art SPL analysis techniques. We contribute a method
    for embedding memoization in Control-Flow Graph (CFG) static analyses implemented
    in Haskell and rewritten to be applied in Software Product Lines. We compared a set
    of six memoized analyses with their non-memoized counterparts in a set of ten revisions
    from the BusyBox SPL. We observed that the memoization technique was effective in
    reusing the results of the analyses applied in previous revisions, with reductions in total
    time computing analysis reaching up to two orders of magnitude in relation to the non-memoized
    analyses while having limited storage consumption impact.

9
  • HENRIQUE TIBÉRIO BRANDÃO VIEIRA AUGUSTO
  • Classificação de Intensidade das Emoções na Fala em Português Brasileiro por meio de Deep Learning

  • Orientador : GERALDO PEREIRA ROCHA FILHO
  • MEMBROS DA BANCA :
  • GERALDO PEREIRA ROCHA FILHO
  • MARCELO ANTONIO MAROTTA
  • RAFAEL DUARTE COELHO DOS SANTOS
  • RODOLFO IPOLITO MENEGUETTE
  • Data: 18/12/2024

  • Mostrar Resumo
  • A fala costuma ser a nossa primeira forma de comunicação e de expressão de emoções. O Reconhecimento de Emoção na Fala é um problema complexo, pois a expressão emocional depende da linguagem falada, do dialeto, do sotaque e do histórico cultural dos indivíduos. A intensidade dessa emoção pode afetar nossa percepção e nos induzir a interpretar a informação de maneira inadequada, havendo perspectiva de aplicabilidade em diversas áreas, como: monitoramento de pacientes, segurança, sistemas comerciais e entretenimento. Este trabalho realizou uma tarefa de Aprendizado de Máquina utilizando Aprendizado Profundo para inferir a intensidade das emoções na voz em português, através da Fusão de Domínios com duas bases de dados distintas. Para tal, foi criado um Autoencoder para realizar a extração de características e posteriormente um modelo supervisionado para efetuar a classificação das intensidades entre quatro classes: (i) Fraca; (ii) Moderada; (iii) Alta; e (iv) Pico de intensidade. Os resultados indicam a possibilidade de inferir a intensidade, embora o conjunto de dados seja reduzido, mesmo ao combinarmos dois datasets. Foram realizados dois cenários experimentais, com arquiteturas análogas, variando apenas a quantidade de características representativas utilizadas como dado de entrada para os modelos. Além disso, observando as métricas de desempenho em ambos experimentos, foi possível notar reincidência da mesma classe (forte) com a menor variação enquanto as classes mais distantes (fraca e pico) tiveram as melhores performances, o que levanta questionamentos para estudos posteriores.


  • Mostrar Abstract
  • Speech is often our first form of communication and expression of emotions. Speech Emotion Recognition is a complex problem, as emotional expression depends on spoken language, dialect, accent, and the cultural background of individuals. The intensity of this emotion can affect our perception and lead us to interpret information inappropri- ately, with potential applications in various fields such as: Patient monitoring, security, commercial systems, and entertainment. This work performed a Machine Learning task using Deep Learning to infer the intensity of emotions in Portuguese speech, employing Domain Fusion with two distinct databases. To do so, an Autoencoder was created to extract features, and then a supervised model to classify intensities into four classes: (i) Weak; (ii) Moderate; (iii) High; and (iv) Peak intensity. The results indicate the pos- sibility of inferring intensity, although the final dataset is limited, even when combining two datasets. Two experimental scenarios were carried out, with analogous architectures, varying only the quantity of representative features used as input for the models. Addi- tionally, observing the performance metrics on both experiments, it was possible to note the recurrence of the same class (strong) with the lowest variation while the most dis- tant classes (weak and peak) had the best performance, which raises questions for further studies.

10
  • OTHO TEIXEIRA KOMATSU
  • Compressão de geometria de nuvem de pontos intra sem perdas baseada no codificador S3D com uso de threads e decomposição em bloco.

  • Orientador : EDUARDO PEIXOTO FERNANDES DA SILVA
  • MEMBROS DA BANCA :
  • DIOGO CAETANO GARCIA
  • EDUARDO PEIXOTO FERNANDES DA SILVA
  • LUCIANO VOLCAN AGOSTINI
  • PEDRO GARCIA FREITAS
  • Data: 19/12/2024

  • Mostrar Resumo
  • Nas últimas décadas, o avanço rápido da tecnologia digital e da internet aumentou dramaticamente a demanda por dados. Esse crescimento nos requisitos de dados supera continuamente as capacidades de processamento do hardware e dispositivos atuais. Contra esse pano de fundo, o campo da compressão de sinais desempenha um papel fundamental na era digital de hoje. Point clouds, que representam cenas 3D por meio de um conjunto de pontos dentro de um espaço definido, emergiram como um formato de nova mídia significativo. As demandas de armazenamento de dynamic point clouds, que capturam cenas 3D com movimento ao longo do tempo, semelhantes a vídeos, são particularmente desafiadoras, sublinhando a necessidade crítica de pesquisa em compressão de point clouds. Enquanto técnicas tradicionais de compressão estabeleceram a base para o desenvolvimento de novos codecs, o codificador de geometria octree de Queiroz destaca-se por sua importância. No entanto, duas características cruciais que faltam nos codecs recentes são a concorrência e a codificação em tempo real de aquisição. Este trabalho introduz melhorias no codec Silhouette 3D (S3D) de Peixoto, especificamente projetado para abordar essas lacunas. Apresentamos duas variações de multithreading, S3D-Subtree (S3D-S) e S3D-Subtree+Toptree (S3D-ST), que possibilitam o processamento concorrente, uma característica distintiva entre os codecs de geometria de point cloud de última geração. Adicionalmente, propomos os codecs S3D Block Mode (S3D-BM) e S3D Inverted Mode (S3D-IM), oferecendo alternativas mais simples e diretas à dyadic decomposition do S3D para contextos de aquisição em tempo real. Ao abordar a concorrência e a codificação em tempo real, este trabalho avança significativamente o campo da compressão de point clouds, possibilitando aplicações mais eficientes e práticas de representações de cenas 3D.


  • Mostrar Abstract
  • In the last few decades, the rapid advancement of digital technology and the internet has dramatically increased the demand for data. This growth in data requirements continuously outpaces the processing capabilities of current hardware and devices. Against this backdrop, the field of signal compression plays a pivotal role in today's digital era. Point clouds, which represent 3D scenes through a set of points within a defined space, have emerged as a significant new media format. The storage demands of dynamic point clouds, which capture 3D scenes with motion over time, akin to videos, are particularly challenging, underscoring the critical need for research in point cloud compression. While traditional compression techniques have laid the foundation for new codec development, the work of Queiroz - octree geometry encoder - stands out for its significance. However, two crucial features lacking in recent codecs are concurrency and real-time acquisition encoding. This work introduces enhancements to Peixoto's Silhouette 3D (S3D) codec, specifically designed to address these gaps. We present two multithreading variations, S3D-Subtree (S3D-S) and S3D-Subtree+Toptree (S3D-ST), which enable concurrent processing, a distinctive feature among state-of-the-art point cloud geometry codecs. Additionally, we propose the S3D Block Mode (S3D-BM) and S3D Inverted Mode (S3D-IM) codecs, offering simpler and more direct alternatives to the dyadic decomposition of S3D for real-time acquisition contexts. By addressing concurrency and real-time encoding, this work significantly advances the field of point cloud compression, enabling more efficient and practical applications of 3D scene representations.

Teses
1
  • Patricia Medyna Lauritzen de Lucena Drumond
  • Fusão de informações visuais e textuais para análise de documentos

  • Orientador : TEOFILO EMIDIO DE CAMPOS
  • MEMBROS DA BANCA :
  • CAROLINA SCARTON
  • FABRICIO ATAIDES BRAZ
  • LI WEIGANG
  • RICARDO MARCONDES MARCACINI
  • TEOFILO EMIDIO DE CAMPOS
  • Data: 18/01/2024

  • Mostrar Resumo
  • Diariamente é produzido um grande volume de documentos nas organizações industriais, comerciais, governamentais, entre outras. Além disso, com o mercado competitivo na internet, as transações de negócios têm crescido numa velocidade imensa. Esses fatos aumentam cada vez mais a necessidade da automação e extração de informações de documentos. Os documentos podem ter sido originados digitalmente como um arquivo eletrônico ou podem ser uma cópia digitalizada de documento impresso em papel. Além disso, esses documentos, geralmente, são ricos de informações visuais e podem estar organizados de diferentes maneiras, desde páginas simples contendo apenas texto, até páginas com layouts de várias colunas de texto e uma ampla variedade de elementos não textuais como figuras e tabelas. Para análise e classificação desses documentos a extração de informações baseadas somente em blocos de texto ou em características visuais nem sempre é eficaz. Em geral, a relação espacial desses elementos e blocos de texto contém informações semânticas cruciais para compreensão de documentos.

    O processo de automação da análise e extração de informações de documentos é desafiador devido aos vários formatos e layouts dos documentos de negócios, e tem atraído a atenção em áreas de pesquisa como Visão Computacional (CV) e Processamento de Linguagem Natural (NLP). Document Intelligence é um termo recente utilizado para aplicações da Inteligência Artificial que envolve a automatização de leitura, compreensão e análise de documentos visualmente ricos de informação. O primeiro workshop de Document Intelligence (DI’2019) foi realizado no dia 14 de dezembro de 2019 na Conferência sobre Sistemas de Processamento de Informações Neurais (NeurIPS) em Vancouver, Canadá. Essas aplicações, também conhecidas como Document AI, são geralmente desenvolvidas para resolver tarefas como análise de layout de documentos, extração de informações visuais, resposta-pergunta visuais de documento e classificação de imagem de documentos, etc.

    Na última década, várias abordagens multimodais unindo técnicas de CV e NLP vêm avançando em tarefas de compreensão de documentos, como por exemplo, análise de layout, segmentação de páginas e classificação de imagens de documentos considerando a junção de pelo menos duas das modalidades de recursos: visuais, textuais e de layout. Existem algumas abordagens que foram propostas para lidar com layouts nas imagens do documento. As abordagens tradicionais baseadas em regras (top-down, bottom-up e híbridas) e as abordagens baseadas em Machine Learning e Deep Learning. No entanto, o surgimento da abordagem Deep Learning, principalmente com as técnicas de pré-treinamento, utilizando Redes Neurais Convolucionais e Arquitetura Transformer tem avançado em pesquisa reduzindo o número de pesquisas com abordagens tradicionais.

    A tecnologia de Deep Learning usada em Document Intelligence envolve a extração de informações de diferentes tipos de documentos através de ferramentas de extração, como OCR, extração de HTML/XML e PDF. As informações de texto, layout e visuais depois de extraídas são pre-treinadas em redes neurais para realizar as tarefas downstream. O modelo de linguagem BERT (Bidirectional Encoder Representations from Transformers) tem sido usado como backbone para outros modelos de pre-treinamento combinando recursos visuais e textuais para tarefas downstream. Apesar do excelente desempenho dos modelos Transformer existem vários desafios associados à sua aplicabilidade para configurações prática. Os gargalos mais importantes incluem requisitos para grandes quantidades de dados de treinamento e altos custos computacionais associados.

    Ao contrário desses modelos, nós propomos um método de codificação de layout espacial simples e tradicional baseado em regras, LayoutQT, que combina informações textuais e espaciais de blocos de texto. Nós mostramos que isso permite que um pipeline de NLP padrão seja significativamente aprimorado sem exigir custos de fusão multimodal de médio ou alto nível. O LayoutQT divide a imagem de documento em quadrantes e associa a cada quadrante um token. Na extração de blocos de texto, são inseridos os tokens relativo às posições de início e fim dos blocos de texto. Além disso, foram inseridos tokens relativos às posições centrais de texto. Para avaliar nosso método, nós realizamos experimentos de classificação de documentos utilizando as redes neurais LSTM e AWD-LSTM em duas bases de dados, Tobacco800 e RVL-CDIP, publicamente acessíveis. Além disso, como baseline realizamos os mesmos experimentos sem o nosso método. A classificação de documentos realizada com nosso método obteve uma precisão de 83,6% na base de dados RVL-CDIP de grande escala e 99,5% na base de dados Tobacco800. RVL-CDIP contém 400.000 imagens de documentos divididos em 16 classes e é utilizada para classificação de documentos, enquanto a Tobacco800, possui 1.290 imagens de documentos dividida em duas classes (FirstPage e NextPage), utilizada para classificar se a imagem é a primeira página de um documento ou se é uma página de continuidade. Em seguida, nós pesquisamos na literatura outras base de dados compatíveis com as já utilizadas em nossa abordagem para o problema de classificação de documentos. As bases de dados encontradas que são disponíveis publicamente foram: Tobacco-3482 e VICTOR. A Tobacco-3482 é composta por 3.482 imagens de documentos dividida em 10 classes sendo um subconjunto da base de dados RVL-CDIP. VICTOR é uma base de dados mais robusta contendo 692.966 documentos de processos judiciais do Supremo Tribunal Federal (STF) do Brasil compreendendo 4.603.784 páginas dividida em 6 classes. Essa base de dados faz parte de um projeto com mesmo nome, resultado da parceria entre a UnB, STF e a Finatec.
    Para trabalhos futuros, iremos realizar mais experimentos com nosso modelo modificando os parâmetros. Nos experimentos realizados anteriormente, nós utilizamos uma quantidade fixa de 24 quadrantes, ou seja, nós dividimos a imagem em regiões verticais por 6 regiões horizontais. Para validar nosso modelo, pretendemos variar a quantidade de quadrantes e comparar os resultados. Além disso, nós iremos utilizar as duas bases de dados já utilizadas, Tobacco800 e RVL-CDIP e acrescentar aos experimentos a base VICTOR por ser mais robusta e diferente das anteriores para tarefa de classificação. 


  • Mostrar Abstract
  • The large volume of documents produced daily in all sectors, such as industry, commerce, and government agencies, has increased the number of researches aimed at  automating the process of reading, understanding, and analyzing documents. Business documents can be born digital, as electronic files, or can be a digitized form that comes from writing or printed on paper. In addition, these documents often come in various layouts and formats. They can be organized in different ways, from plain text, multi- column layouts, and a wide variety of tables/forms/figures. In many documents, the spatial relationship of text blocks usually contains important semantic information for downstream tasks. The relative position of text blocks plays a crucial role in document understanding. However, the task of embedding layout information in the representation of a page instance is not trivial. In the last decade, Computer Vision (CV) and Natural Language Processing (NLP) pre-training techniques have been advancing in extracting content from document images considering visual, textual, and layout features. Deep learning methods, especially the pre-training technique, represented by Transformer architecture, have become a new paradigm for solving various downstream tasks. However, a major drawback of such pre-trained models is that they require a high computational cost. Unlike these models, we propose a simple and traditional rule-based spatial layout encoding method, which combines textual and spatial information from text blocks. We show that this enables a standard NLP pipeline to be significantly enhanced without requiring expensive mid or high-level multimodal fusion. We evaluate our method on two datasets, Tobacco800 and RVL-CDIP, for document image classification tasks. The document classification performed with our method obtained an accuracy of 83.6% on the large-scale RVL-CDIP and 99.5% on the Tobacco800 datasets. In order to validate the effectiveness of our method, we intend to carry out more experiments. First, we will use other more robust datasets. Then we will change parameters such as quadrant amounts, insertion/deletion of positional tokens, and other classifiers.

2
  • Gabriel Ferreira Silva
  • Rumo à unificação nominal AC

  • Orientador : MAURICIO AYALA RINCON
  • MEMBROS DA BANCA :
  • CHRISTIAN URBAN
  • CÉSAR MUÑOZ
  • JOSÉ MESEGUER
  • MAURICIO AYALA RINCON
  • VANDER RAMOS ALVES
  • Data: 26/01/2024

  • Mostrar Resumo
  • O paradigma nominal estende a sintaxe de primeira ordem e representa adequadamente
    o conceito de variáveis ligadas. Para trabalhar com esse vantajoso paradigma faz-se ne-
    cessário adaptar noções de primeira ordem a ele, como unificação e matching. Esta tese
    é sobre unificação e matching no paradigma nominal na presença de uma teoria equaci-
    onal E e sobre nosso trabalho em progresso para obter um algoritmo de AC-unificação
    nominal. Inicialmente, generalizamos um algoritmo de C-unificação nominal para realizar
    também matching e equality-checking e formalizamos o algoritmo generalizado. Isto foi
    feito por meio da adição de um parâmetro X para lidar com variáveis protegidas e a
    formalização foi usado para testar uma implementação manual em Python do algoritmo.
    Em seguida, como um primeiro passo em direção a AC-unificação nominal, fornecemos a
    primeira formalização de um algoritmo de AC-unificação em primeira ordem. Escolhemos
    formalizar o algoritmo seminal de Stickel. A prova de terminação utiliza uma intrincada
    (mas devidamente motivada) medida lexicográfica, que está baseada na demonstração de
    terminação dada por Fages. Depois disso, adaptamos o algoritmo de AC-unificação em
    primeira ordem para obter o primeiro algoritmo para AC-matching em nominal e verifica-
    mos que o algoritmo termina e é correto e completo. Assim como fizemos em C-unificação
    nominal, usamos um parâmetro X para as variáveis protegidas e essa abordagem nos per-
    mitiu obter um AC-equality-checker como corolário. As 3 formalizações descritas foram
    feitas no assistente de provas PVS e integram a NASALib, o principal repositório de for-
    malizações do PVS. Para cada uma dessas formalizações nós descrevemos os arquivos que
    compõem a formalização, detalhando a estrutura, hierarquia e tamanho. Não foi possível
    propor um algoritmo de AC-unificação nominal, mas mostramos que o problema tem duas
    questões interessantes associadas a ele: gerar as soluções para π · X ≈? X e demonstrar
    terminação. Para a primeira questão, propomos um procedimento não determinístico de
    enumeração e exemplificamos como este calcula soluções não triviais. Para a segunda
    questão demonstramos como o problema f(X, W) ≈? f(π · X, π · Y ) gera um loop e prova-
    mos que é suficiente entrar no loop uma quantidade limitada de vezes, onde esse limite
    depende da ordem da permutação π. Infelizmente, não fomos capazes de generalizar nosso
    raciocínio para problemas semelhantes.


  • Mostrar Abstract
  • The nominal syntax extends first-order syntax and allows us to represent smoothly sys-
    tem with bindings. In order to profit from the nominal setting, we must adapt important
    notions to it, such as unification and matching. This thesis is about nominal unification/-
    matching in the presence of an equational theory E and our efforts towards obtaining a
    nominal AC-unification algorithm. First, we extend and formalise a nominal C-unification
    algorithm to also handle matching and equality checking by adding an extra parameter
    X for protected variables, i.e., variables that cannot be instantiated. The formalised al-
    gorithm is used to test a Python manual implementation of the algorithm. Then, as a
    first step towards nominal AC-unification, we give the first formalisation of a first-order
    AC-unification algorithm. We choose to verify Stickels tried-and-tested algorithm. The
    proof of termination employs an intricate (but duly motivated) lexicographic measure that
    is based on Fages proof of termination. Finally, we adapt the first-order AC-unification
    algorithm to propose the first nominal AC-matching algorithm and formalise it to be
    terminating, sound and complete. As was the case for nominal C-unification, we used a
    parameter X for protected variables and this approach also let us obtain a verified nomi-
    nal AC-equality checker as a byproduct. The 3 formalisations previously described were
    done in the PVS proof assistant and are available in NASALib, PVS main repository of
    formalisations. In each one of the three formalisations we describe the files that compose
    the formalisation, pointing out their structure, hierarchy and size. We were not able to
    propose a nominal AC-unification algorithm, but we show how the problem has two in-
    teresting questions: generating solutions π · X ≈? X and proving termination. For the
    first question we propose a non-deterministic enumeration procedure and exemplify how
    it can compute non-obvious solution. For the second question we demonstrate that the
    problem  f(X, W) ≈? f(π · X, π · Y ) gives rise to a loop and prove that it is enough to
    loop a limited amount of times, where this limit depend on the order of the permutation
    π. Unfortunately, we were not able to generalise our reasoning to similar problems.

3
  • Aldo Henrique Dias Mendes
  • Arquitetura Multiagente com Modelos de Raciocínio Distintos para Gerenciamento de Recursos em Múltiplos Provedores de Nuvem

  • Orientador : CELIA GHEDINI RALHA
  • MEMBROS DA BANCA :
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • ALEXANDRE DA COSTA SENA
  • CELIA GHEDINI RALHA
  • LUCIA MARIA DE ASSUMPCAO DRUMMOND
  • RICARDO PEZZUOL JACOBI
  • Data: 02/02/2024
    Ata de defesa assinada:

  • Mostrar Resumo
  • Atualmente, as aplicações científicas e comerciais são frequentemente implementadas em ambientes de nuvem que requerem vários tipos de recursos. Este cenário aumenta a necessidade de uma gestão eficiente dos recursos. No entanto, a gestão eficiente de recursos continua a ser um desafio devido à natureza complexa dos sistemas distribuídos em nuvem, uma vez que os recursos envolvem diferentes características, tecnologias e custos financeiros. Assim, o gerenciamento otimizado de recursos em nuvem para suportar a natureza heterogênea das aplicações, equilibrando custo, tempo e desperdício, continua sendo um desafio. A tecnologia multiagente pode oferecer melhorias significativas no gerenciamento de recursos, com agentes inteligentes decidindo de forma autônoma os recursos da Máquina Virtual (MV). Este trabalho propõe MAS-Cloud+, uma arquitetura baseada em agentes inteligentes para predição, provisionamento e monitoramento de recursos otimizados em nuvem computacional. MAS-Cloud+ implementa agentes com três modelos de raciocínio, incluindo heurístico, otimizado e meta-heurístico. O MAS-Cloud+ instancia MVs considerando o Acordo de Nível de Serviço (SLA) em plataformas de nuvem, priorizando as necessidades do usuário considerando tempo, custo e desperdício de recursos, fornecendo seleção apropriada para cargas de trabalho avaliadas. MAS-Cloud+ foi avaliado utilizando uma aplicação de comparação de sequências de DNA submetida a diferentes tamanhos de carga de trabalho e um estudo comparativo com aplicações de benchmark Apache Spark executadas na plataforma AWS EC2. Nossos resultados mostram que para executar a aplicação de comparação de sequências o melhor desempenho foi obtido pelo modelo de otimização, enquanto o modelo heurístico apresentou o melhor custo. Ao fornecer a escolha entre vários modelos de raciocínio, nossos resultados mostram que o MAS-Cloud+ fornece uma seleção mais econômica das instâncias, reduzindo approx 58% do custo médio de execução de cargas de trabalho do WordCount, Sort e PageRank BigDataBench. Quanto ao tempo de execução, o WordCount e o PageRank apresentam redução, este último com approx 58%. Os resultados indicam  uma solução promissora para gerenciamento eficiente de recursos em nuvem.


  • Mostrar Abstract
  • Nowadays, scientific and commercial applications are often deployed to cloud environments requiring multiple resource types. This scenario increases the necessity for efficient resource management. However, efficient resource management remains challenging due to the complex nature of modern cloud-distributed systems since resources involve different characteristics, technologies, and financial costs. Thus, optimized cloud resource management to support the heterogeneous nature of applications balancing cost, time, and waste remains a challenge. Multi-agent technologies can offer noticeable improvements for resource management, with intelligent agents deciding on Virtual Machine (VM) resources. This article proposes MAS-Cloud+, a novel agent-based architecture for predicting, provisioning, and monitoring optimized cloud computing resources. MAS-Cloud+ implements agents with three reasoning models including heuristic, formal optimization, and metaheuristic. MAS-Cloud+ instantiates VMs considering Service Level Agreement (SLA) on cloud platforms, prioritizing user needs considering time, cost, and waste of resources providing appropriate selection for evaluated workloads. To validate MAS-Cloud+, we use a DNA sequence comparison application subjected to different workload sizes and a comparative study with state-of-the-art work with Apache Spark benchmark applications executed on the AWS EC2. Our results show that to execute the sequence comparison application, the best performance was obtained by the optimization model, whereas the heuristic model presented the best cost. By providing the choice among multiple reasoning models, our results show that MAS-Cloud+ could provide a more cost-effective selection of the instances reducing approx 58% of execution average cost of WordCount, Sort and PageRank BigDataBench benchmarking workloads. As for the execution time, the WordCount and PageRank present reduction, the latter with approx 58%. The results indicate a promising solution for efficient cloud resource management.

4
  • Lucas Angelo da Silveira
  • Dynamically Reconfigurable Heterogeneous Parallel Island Model.

  • Orientador : MAURICIO AYALA RINCON
  • MEMBROS DA BANCA :
  • CARLOS ARTEMIO COELLO COELLO
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • LEANDRO DOS SANTOS COELHO
  • MAURICIO AYALA RINCON
  • TELMA WOERLE DE LIMA SOARES
  • Data: 26/04/2024

  • Mostrar Resumo
  • Problemas de otimização são encontrados em diversos campos de atividade, e à medida
    que a compreensão e a prática nesses campos avançam, suas complexidades se acentuam.
    Nas últimas décadas, têm sido propostos diversos algoritmos bioinspirados para resolver
    problemas de otimização. Cada um desses algoritmos possui características únicas que
    impactam de maneiras distintas tanto no processo evolutivo quanto na qualidade das
    soluções alcançadas. O modelo de ilhas paralelas é uma estratégia de paralelização de
    algoritmos bioinspirados que proporciona ganhos significativos em termos de acurácia nas
    soluções. Nesse modelo, o conjunto de soluções candidatas é dividido em subpopulações
    denominadas ilhas. Cada ilha evolui seu conjunto de soluções por meio de seu próprio
    algoritmo bioinspirado, operando de forma paralela às outras ilhas. Periodicamente, as
    ilhas trocam soluções entre si através do processo de migração. Esse movimento de soluções
    entre as ilhas é condicionado à topologia do modelo e a um conjunto de regras que
    compõem a política de migração. Este trabalho propõe uma nova abordagem de implementação
    para modelos de ilhas paralelas, inspirada em heterogeneidade e reconfiguração
    algorítmica, denominada modelo de ilhas heterogêneas reconfiguráveis por estagnação.
    A heterogeneidade permite a execução de diferentes algoritmos bioinspirados nas ilhas,
    aumentando a diversidade nos modelos, enquanto a reconfiguração algorítmica é o processo
    de substituição do algoritmo bioinspirado aplicado caso a estagnação de uma ilha
    seja detectada. Durante o processo evolutivo, cada ilha mantém um registro de seu progresso,
    mensurado pelo desempenho do melhor indivíduo em cada ilha, na geração atual
    e nas duas gerações anteriores. Sempre que exista estagnação, ou seja, não se detecte
    progresso, a ilha é reconfigurada para continuar o processo evolutivo executando o melhor
    algoritmo bioinspirado até o momento. Essa abordagem é particularmente útil para lidar
    com problemas de otimização nos quais encontrar soluções ótimas em tempo polinomial é
    impraticável. Além disso, destaca-se pela sua autonomia, pois não demanda intervenção
    do usuário para realizar a reconfiguração.


  • Mostrar Abstract
  • Optimization problems are encountered in various fields of activity, and as the understanding and practice in these fields advance, their complexities become more pronounced. Several bioinspired algorithms have been proposed in recent decades to address optimization problems. Each of these algorithms possesses unique characteristics that impact the evolutionary process and the quality of the solutions achieved in distinct ways.
    The parallel island model is a strategy for parallelizing bioinspired algorithms that yields significant gains in solution accuracy. In this model, the set of candidate solutions is divided into subpopulations known as islands. Each island evolves its set of solutions through its own bioinspired algorithm, operating in parallel with the other islands. Periodically, islands exchange solutions through the migration process. This movement of solutions between islands is conditioned by the model's topology and a set of rules comprising the migration policy.
    This work proposes a new implementation approach for parallel island models inspired by heterogeneity and algorithmic reconfiguration, introducing the stagnation-based reconfigurable heterogeneous island models. Heterogeneity allows the execution of different bioinspired algorithms on islands, increasing model diversity. At the same time, algorithmic reconfiguration replaces the applied bioinspired algorithm when islands' stagnation is detected. During the evolutionary process, each island maintains a record of its progress, measured by the fitness of the best individual in each island in the current and previous two generations. Whenever an island presents \textit{stagnation}, i.e., no progress is detected, the island is \textit{reconfigured} to continue the evolutionary process by executing the best-bioinspired algorithm up to that point. This approach is beneficial for dealing with optimization problems where finding optimal solutions in polynomial time is impractical. Additionally, it stands out for its autonomy, as it does not require user intervention to perform reconfiguration. The automatic adjustment of the model and the decision for reconfiguration are determined by stagnation.

5
  • Nilson Donizete Guerin Junior
  • Autoencoder-Based Image Compression with Target Bitrate Constraint

  • Orientador : BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • MEMBROS DA BANCA :
  • ALEXANDRE ZAGHETTO
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • EDUARDO ANTONIO BARROS DA SILVA
  • RICARDO LOPES DE QUEIROZ
  • TEOFILO EMIDIO DE CAMPOS
  • Data: 21/06/2024

  • Mostrar Resumo
  • A compressão de imagens baseada em aprendizado tem se tornado uma alternativa promissora às técnicas tradicionais de codificação. Os codecs neurais evoluíram rapidamente, superando muitas vezes os métodos clássicos. Abordagens como autoencoders variacionais e redes neurais recorrentes têm demonstrado eficiência na otimização do equilíbrio entre taxa de compressão e qualidade da imagem. O controle de taxa é uma necessidade em várias aplicações de codificação de imagens. No entanto, alcançar esse controle de forma consistente e com impacto mínimo na qualidade da imagem ainda é um desafio. Geralmente, codecs com perdas precisam de vários modelos treinados para diferentes níveis de qualidade. Apesar de avanços para tornar os modelos mais flexíveis, permitindo múltiplos pontos de taxa-distorção, o problema de controle de taxa consistente — onde um único modelo entrega a taxa desejada para qualquer imagem — é pouco explorado. Neste trabalho, propomos uma solução eficiente para realizar controle de taxa em um único modelo baseado em aprendizado. Nossa abordagem modifica a função de perda do autoencoder durante o treinamento. Além disso, inspirados pela área de aprendizado por reforço, adicionamos uma estratégia temporal-adaptativa, que incorpora ajustes dinâmicos ao longo do tempo, tornando o treinamento mais robusto. Os resultados em bases de dados como Kodak e JPEG AI mostram que nossos modelos atingem controle de taxa com perdas mínimas nas métricas Índice Estrutural de Similaridade (SSIM, do inglês Structural Similarity Index) e Índice Estrutural de Similaridade Multi-Escala (MS-SSIM, do inglês Multi-Scale Structural Similarity Index). Observamos uma leve redução na Razão

    Pico-Sinal-Ruído (PSNR, do inglês Peak Signal-to-Noise Ratio) em comparação com modelos variacionais tradicionais que otimizam como perda a função de taxa-distorção. 


  • Mostrar Abstract
  • Learning-based image compression is emerging as a competitive alternative to conventional image coding techniques. Neural image coding has advanced significantly, evolving from struggling to match classical codecs to now often surpassing them. Techniques such as variational autoencoders and recurrent neural networks have shown promise in optimizing the rate-distortion trade-off while preserving image content. Rate control is a critical feature, often a requirement, for several still image coding applications. Achieving rate control for every input with minimal impact on rate-distortion performance remains challenging. Typically, learning-based lossy codecs need multiple trained models for different quality requirements. Although initiatives have aimed to enhance model flexibility by in corporating multiple rate-distortion points, the problem of consistent rate control—where a model achieves a specific rate across all compressed images—remains underexplored and poorly understood. This work proposes a non-constrained solution to the constrained problem of training a learning-based image codec for a specific bitrate. The solution involves modifying the loss function for autoencoder optimization. Additionally, inspired by Reinforcement Learning, a temporal-adaptive approach is introduced, which incorporates temporal behavior into the loss function, making the training process more robust against optimization challenges. Experiments conducted on the Kodak and JPEG AI datasets demonstrate that autoencoders trained with the proposed loss functions can achieve rate-constrained encoding with negligible losses in SSIM (Structural Similarity Index Measure)

6
  • Italo Barbosa Brasileiro
  • Core Switching Paradigms in Multi-core Elastic Optical Networks

  • Orientador : ANDRE COSTA DRUMMOND
  • MEMBROS DA BANCA :
  • ANDRE COSTA DRUMMOND
  • EDUARDO ADILIO PELINSON ALCHIERI
  • PRISCILA AMERICA SOLIS MENDEZ BARRETO
  • ANDRE CASTELO BRANCO SOARES
  • GUSTAVO BITTENCOURT FIGUEIREDO
  • Data: 27/06/2024

  • Mostrar Resumo
  • As redes ópticas elásticas (EONs) surgem como uma tecnologia para alocação espectral eficiente em fibras ópticas. Uma única fibra EON suporta vários circuitos em paralelo, alocando canais espectrais distintos e acomodando circuitos com requisitos de largura de banda variável. As fibras com vários núcleos (MCF) surgem para aumentar ainda mais a disponibilidade de recursos. A MCF pode conter vários núcleos (geralmente 7 ou 12). Conceitualmente, cada MCF opera como um grupo de fibras de núcleo único. As MCFs permitem a multiplexação por divisão espacial (SDM) em EON, o que aumenta os recursos espectrais ao utilizar os diferentes canais espaciais (núcleos). A literatura atual sobre SDM-EON se divide em dois paradigmas principais: restrição de núcleo e mudança de faixa espacial (SLC). O primeiro define arquiteturas em que um circuito deve permanecer no mesmo núcleo ao longo de sua rota. O segundo, as arquiteturas SLC, permitem a troca de núcleo ao longo da rota. O impacto causado pelas duas arquiteturas está no custo de implantação e de energia em relação ao grau de flexibilidade no procedimento de alocação de recursos. Esta tese propõe soluções para melhorar a eficiência da utilização de recursos em ambos os paradigmas. Uma solução de alocação de recursos com núcleos dedicados para diferentes categorias de circuitos é proposta para arquiteturas focadas no paradigma com restrição de núcleo. Essa solução visa a manter circuitos mais resistentes a interferências físicas nos núcleos mais afetados, além de adotar técnicas para reduzir a fragmentação espectral na alocação. Para o paradigma SLC, esta tese apresenta uma solução adaptada aos cenários de desfragmentação de rede. A solução proposta combina uma heurística de desfragmentação com duas técnicas de reorganização espectral sem interrupção ou suspensão do serviço. O objetivo é reduzir o estado de fragmentação sempre que um acionador for ativado, resultando em maior disponibilidade de recursos após a reorganização espectral. Por fim, é apresentado um novo paradigma de comutação de núcleo, denominado comutação de núcleo esparso, que implica uma arquitetura na qual diferentes nós da rede possuem graus distintos de flexibilidade para realizar a comutação de núcleo. O principal objetivo é reduzir drasticamente o custo de implantação, mantendo a flexibilidade de comutação apenas nos nós mais vantajosos. Essa abordagem economiza recursos em vários níveis e tem um desempenho eficiente em comparação com as abordagens SLC e com restrição de núcleo.


  • Mostrar Abstract
  • Elastic Optical Networks (EONs) emerge as a technology for efficient spectral allocation in optical fibers. A single EON fiber supports multiple circuits in parallel, allocating distinct spectral channels and accommodating circuits with variable bandwidth requirements. Multi-core fibers (MCF) emerge to increase resource availability further. The MCF can hold multiple cores (usually 7 or 12). Conceptually, each MCF operates as a group of single-core fibers. MCFs enable Spatial Division Multiplexing (SDM) in EON, which increases spectral resources by utilizing the different spatial channels (cores). The current SDM-EON literature branches into two main paradigms: core-constrained and Spatial Lane Change (SLC). The former defines architectures where a circuit must remain in the same core along its route. The latter, SLC architectures, allow the core switching along the route. The impact caused by the two architectures lies in the deployment and energy cost versus the degree of flexibility in the resource allocation procedure. This thesis proposes solutions to improve resource utilization efficiency in both paradigms. A resource allocation solution with dedicated cores for different circuit categories is proposed for architectures focused on the core-constrained paradigm. This solution aims to maintain circuits that are more resilient to physical interferences in the most affected cores, besides adopting techniques to reduce spectral fragmentation in allocation. For the SLC paradigm, this thesis presents a solution adapted to network defragmentation scenarios. The proposed solution combines a defragmentation heuristic with two techniques for spectral reorganization without service interruption or suspension. The goal is to reduce the fragmentation state whenever a trigger is activated, resulting in greater resource availability after spectral reorganization. Finally, a novel core switching paradigm, named sparse core switching, is introduced, which entails an architecture on which different nodes in the network possess distinct degrees of flexibility to perform core switching. The main objective is to reduce drastically the deployment cost while maintaining switching flexibility only in more advantageous nodes. This approach saves resources on multiple levels and performs efficiently compared to core-constrained and SLC approaches.

7
  • Lucas Silva Lopes
  • Modelagem de contextos adaptativa e seleção de hiperparâmetros em compressão de dados baseada em redes neurais.

  • Orientador : RICARDO LOPES DE QUEIROZ
  • MEMBROS DA BANCA :
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • BRUNO ZATT
  • EDUARDO ANTONIO BARROS DA SILVA
  • PEDRO GARCIA FREITAS
  • RICARDO LOPES DE QUEIROZ
  • Data: 19/07/2024

  • Mostrar Resumo
  • A compressão de dados baseada em redes neurais ainda não atingiu todo o
    seu potencial. A modelagem de contexto para codificação aritmética
    geralmente é feita por meio de contagem de frequência e tabelas de
    consulta (LUTs, do inglês, “look-up tables”). Esses modelos geralmente
    são atualizados continuamente à medida que novas amostras são vistas.
    Todos os modelos de contexto baseados em redes neurais que foram
    propostos até o momento fazem uso de pré-treinamento. Nós propomos um
    método de modelagem de contexto baseado em redes neurais para
    codificação aritmética em que as redes neurais são treinadas
    dinamicamente. O modelo começa essencialmente como uma distribuição
    uniforme, e gradualmente se aproxima da verdadeira distribuição de
    probabilidade dos dados, em vez da distribuição dos dados de
    treinamento. O método tem melhor desempenho do que a simples contagem de
    frequências, e permite o aumento do tamanho do contexto para níveis não
    possíveis com métodos baseados em LUT. Existem métodos caixa-preta de
    otimização de hiperparâmetros multiobjetivo (MOHPO, do inglês,
    “multi-objective hyperparameter optimization”) que podem ser usados na
    compressão de dados baseada em redes neurais. Porém, em compressão de
    dados, a complexidade do compressor é geralmente tão importante, ou
    mais, do que seu desempenho de compressão. Propomos um método de
    otimização de hiperparâmetro multiobjetivo que constrói naturalmente o
    conjunto de soluções ótimas, ou o casco convexo inferior, em ordem
    crescente de complexidade. Isso permite que o algoritmo seja
    interrompido quando o valor desejado de bits por amostra, ou o valor
    máximo de complexidade aceitável, é atingido. Comparamos este algoritmo
    com métodos do estado-da-arte presentes em uma popular plataforma de
    MOHPO, com o método proposto apresentando resultados competitivos.


  • Mostrar Abstract
  • Neural-based data compression has not yet reached its full potential.
    Context modeling for arithmetic coding is usually done through frequency
    counting and look-up tables (LUTs). These models are usually
    continuously updated as new samples are seen. All neural- based context
    models which have been proposed so far make use of previous training. We
    propose a neural-based method of context modeling for arithmetic coding
    in which the neural networks are trained on-the-fly. The model
    essentially begins as a uniform distribution, and gradually approaches
    the true probability distribution of the data, instead of the training
    data distribution. The method performs better than the simple frequency
    counting technique, and allows the increase of the context size to
    levels not possible with LUT-based methods. Black-box multi-objective
    hyperparameter optimization (MOHPO) methods exist which can be used in
    neural-based data compression. However, in data compression, the
    complexity of the compressor is generally as important, or more, than
    its compression performance. We propose a method of multi-objective
    hyperparameter optimization which naturally constructs the set of
    optimal solutions, or the lower-convex hull, in increasing order of
    complexity. This allows the algorithm to be stopped once the desireable
    value of compression performance, or the maximal value of acceptable
    complexity, is achieved. We compared this algorithm with
    state-of-the-art methods present in a popular MOHPO platform, with the
    proposed method showing competitive results.

8
  • Ricardo José Menezes Maia
  • P2MLF: Um Arcabouço para Preservação de Privacidade de Ponta a Ponta para Aplicações de Aprendizado de Máquina

  • Orientador : RICARDO PEZZUOL JACOBI
  • MEMBROS DA BANCA :
  • BERNARDO MACHADO DAVID
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • EDWARD DAVID MORENO ORDONEZ
  • JOAO JOSE COSTA GONDIM
  • RICARDO PEZZUOL JACOBI
  • Data: 28/12/2024

  • Mostrar Resumo
  • O direito à privacidade dos dados é fundamental tanto para indivíduos quanto para empresas. Concomitamente, os benefícios das aplicações de Machine Learning (ML) são igualmente importantes para ambos. Portanto, encontrar soluções para equalizar o dilema de garantir privacidade dos dados em aplicações que utilizam ML é vital em cenários de aplicações ML que possuam requisitos não funcionais de privacidade por questões legais.
No requisito de privacidade abordado neste trabalho apenas o dono do dado irá conhecer o seu próprio dado. Os problemas de privacidade podem surgir tanto no estágio de entrada quanto no de saída em aplicações ML e, para exemplificar os problemas, pode-se considerar que Alice é a proprietária das informações e Bob é o proprietário do modelo de ML. Garantir a privacidade na entrada significa que os dados não devem ser expostos, para evitar comprometer a privacidade dos dados de Alice ou a propriedade intelectual do modelo de Bob. Garantir a privacidade da entrada significa que Bob não precisa expor seu modelo em claro para Alice, e Alice não precisa expor seus dados em claro para o mod- elo de Bob. Mesmo com a privacidade garantida na entrada, Alice ainda pode explorar vazamentos de informações usadas por Bob no treinamento do modelo, e a privacidade na saída evita o vazamento dos dados utilizados na fase de treinamento do modelo. Garantir a privacidade dos dados na entrada e na saída durante a inferência e o treinamento é essencial para a proteção de privacidade de ponta a ponta em aplicações ML.
O principal objetivo e problema a ser resolvido nesta tese é propor uma abordagem que possa ser descrita como uma estrutura para garantir a privacidade de ponta a ponta, ou seja na entrada e na saída em aplicações ML.
Como objetivos secundários, incluem-se demonstrações da aplicabilidade das solucoes através de uma aplicação baseada em Secure Multi-Party Computation (MPC) para inferência privada de Malicious Software (Malware) com modelos Multi- Layer Perceptron (MLP), One-Dimensional Convolutional Neural Network (CNN1D) e Long Short-Term Memory (LSTM) treinados com Differentially-Private Stochastic Gradient Descent (DP-SGD). Outra aplicação irá utilizar os métodos descritos neste trabalho para treinamento de modelos de detecção de intrusão.
Por fim, para citar uma das contribuições do método de inferência do framework proposto, este trabalho utiliza quantização float16 pós-treinamento de modelos de deep learning com MPC para alcançar uma detecção de Domain Generation Algorithms (DGA) eficiente e segura. Este trabalho demonstra que, ao usar a quantização, obtém-se um aumento significativo na velocidade, resultando em uma redução de 23% a 42% no tempo de execução da inferência sem reduzir a acurácia, utilizando um protocolo de computação segura de três partes tolerante a uma corrupção. Soluções anteriores não são privadas de ponta a ponta, não fornecem garantias de privacidade diferencial para os resultados do modelo e assumem-se que as camadas de embeddings do modelo sejam publicamente conhecidas. O melhor protocolo em termos de precisão é executado em cerca de 0.22 segundos.


  • Mostrar Abstract
  • The right to data privacy is fundamental for individuals and companies. One can mention the benefits of Machine Learning (ML) applications for people and businesses. Therefore, finding solutions to balance the dilemma of ensuring data privacy in applications that use ML is vital, especially in scenarios where ML applications have non-functional privacy requirements for legal reasons.
    In the privacy requirement addressed in this work, only the data owner will know their data. Privacy issues can arise in the input and output stages of the application of ML, and to illustrate this problem, consider Alice as the owner of the information and Bob as the owner of the model ML. Ensuring input privacy means that data should not be exposed to avoid compromising the privacy of Alice ’s data or the intellectual property of Bob ’s model. Ensuring output privacy means that Bob does not need to expose his model in plain text to Alice, and Alice does not need to reveal her data in plain text to Bob ’s model. Even with input privacy, Alice could potentially exploit information used by Bob in model training, and output privacy prevents data leakage during training. Ensuring the privacy of the input and output data during inference and training is essential for end-to-end privacy protection in ML applications.
    The main objective and problem to be solved is to propose an approach that can be described as a framework to ensure end-to-end privacy, that is, input and output privacy in ML applications.
    As secondary objectives of this thesis, the applicability of the framework will be demonstrated through an application based on Secure Multi-Party Computation (MPC) for private inference of Malicious Software (Malware) using MultiLayer Perceptron (MLP), One-Dimensional Convolutional Neural Network (CNN1D), and Long Short-Term Mem- ory (LSTM) models trained with Differentially-Private Stochastic Gradient Descent (DP- SGD). Another application will apply the methods described in this work for training Intrusion Detection System (IDS) models.
    Finally, to mention one of the contributions of the proposed framework inference method, this work uses post-training float16 quantization of deep learning models with MPC to achieve efficient and secure detection of Domain Generation Algorithms (DGA).
    This work demonstrates that quantization significantly increases speed, resulting in a 23% to 42% reduction in inference execution time without reducing accuracy, using a three- party secure computation protocol that tolerates one corruption. Previous solutions are not end-to-end private, do not provide Differential Privacy (DP) guarantees for model results, and assume that the model’s Embedding Layer (EL)s are publicly known. The best protocol in terms of accuracy runs in approximately 0.22 seconds.

2023
Dissertações
1
  • GEOVANA RAMOS SOUSA SILVA
  • Human Factors in the Design of Chatbot Interactions: Conversational Design Practices

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • GENAINA NUNES RODRIGUES
  • ANA PAULA CHAVES STEINMACHER
  • MAIRIELI SANTOS WESSEL
  • Data: 31/01/2023

  • Mostrar Resumo
  • Os chatbots são agentes inteligentes que imitam o comportamento humano para conduzir conversas significativas. A natureza conversacional dos chatbots apresenta desafios aos designers, pois seu desenvolvimento é diferente de outros softwares e exige a investigação de novas práticas no contexto da interação humano-IA e seus impactos na experiência do usuário. Como os chatbots geralmente atuam como representantes de uma marca, melhorar a experiência de conversação dos usuários impacta diretamente na forma como os usuários percebem a organização que o chatbot representa. Objetivo:  O objetivo desse trabalho é identificar elementos textuais, visuais ou interativos de interações de chatbot baseadas em texto e como esses elementos podem potencializar ou enfraquecer algumas percepções e sentimentos dos usuários, como satisfação, engajamento e confiança, para a criação do guia Diretrizes para Design Conversacional de Chatbots (DDCC). Método: Utilizamos múltiplos métodos de pesquisa com o objetivo de gerar, validar e verificar o guia. Primeiramente, conduzimos uma Revisão Sistemática da Literatura (RSL) para identificar as práticas de design conversacional e seus impactos. Essas práticas foram utilizadas no guia DDCC por meio da análise qualitativa e da codificação dos resultados da RSL. Em seguida, o guia foi validado por meio de um survey com a intenção de implementar melhorias quanto a sua apresentação. Resultado:  A validação do guia com desenvolvedores de software com diferentes níveis de experiência mostrou que eles concordaram fortemente que o guia pode induzir maior satisfação e engajamento dos usuários. Ademais, eles também concordaram fortemente que o guia é claro e compreensível, além de ter um uso fácil e flexível. Embora os particicipantes tenham sugerido algumas melhorias, eles relataram que os principais pontos fortes do guia são a objetividade e a clareza. Conclusão e Trabalhos Futuros: O guia se mostrou útil para desenvolvedores com diferentes níveis de conhecimento, com o potencial de se tornar um forte aliado dos desenvolvedores no processo de design conversacional. Na próxima etapa, será realizado um estudo de caso para verificar a eficácia do guia quando utilizado em conversas de chatbot.


  • Mostrar Abstract
  • Context: Chatbots are intelligent agents that mimic human behavior to carry on meaningful conversations. The conversational nature of chatbots poses challenges to designers since their development is different from other software and requires investigating new practices in the context of human-AI interaction and their impact on user experience. Since chatbots usually act as a brand's representative, improving the conversational experience for users directly impacts how users perceive the organization the chatbot represents. Objective: The objective of this work is to identify textual, visual, or interactive elements of text-based chatbot interactions and how these elements can potentiate or weaken some perceptions and feelings of users, such as satisfaction, engagement, and trust, for the creation of the Guidelines for Chatbot Conversational Design (GCCD) guide. Method: We used multiple research methods to generate, validate and verify the guide. First, we conducted a Systematic Literature Review (SRL) to identify conversational design practices and their impacts. These practices were used in the GCCD guide through qualitative analysis and coding of SLR results. Then, the guide was validated through a survey to implement improvements regarding its presentation. Results: The guide's validation by software developers with different levels of experience showed that they strongly agreed that the guide could induce greater user satisfaction and engagement. Furthermore, they also strongly agreed that the guide is clear and understandable, as well as easy and flexible to use. Although participants suggested some improvements, they reported that the guide's main strengths are objectivity and clarity. Conclusion and Future Work: The guide proved to be useful for developers with different levels of knowledge, with the potential to become a strong ally for developers in the conversational design process. In the next step, a case study will be carried out to verify the guide's effectiveness when used in chatbot conversations.

     
2
  • Danilo José Bispo Galvão
  • An Approach for High-Level Multi-Robot Mission Verification in UPPAAL

  • Orientador : GENAINA NUNES RODRIGUES
  • MEMBROS DA BANCA :
  • GENAINA NUNES RODRIGUES
  • RODRIGO BONIFACIO DE ALMEIDA
  • VANDER RAMOS ALVES
  • RADU CALINESCU
  • Data: 31/01/2023

  • Mostrar Resumo
  • A necessidade de alavancar meios para especificar missões robóticas a partir de um alto nível de abstração ganhou força devido ao crescimento da popularidade das aplicações robóticas. Como tal, é primordial fornecer meios para garantir que não só a missão robótica seja corretamente especificada, mas que também garanta graus de segurança face à crescente complexidade das tarefas atribuídas aos Sistemas Multi-Robot (MRS). Portanto, as missões do robô agora precisam ser especificadas e verificadas formalmente para robôs e outros agentes envolvidos na operação da missão robótica. No entanto, muitas especificações de missão carecem de um processo de verificação simplificado que garanta que todas as propriedades da missão sejam completamente verificadas por meio da verificação do modelo. Este trabalho propõe um processo de verificação preliminar de modelos para especificação de missão e decomposição de MRS no verificador de modelos UPPAAL. Em particular, apresentamos um modelo semiautomatizado contendo propriedades hierárquicas de definição de domínio transformadas em templates UPPAAL e propriedades de missão formalizadas na linguagem de autômatos temporizados UPPAAL TCTL. No futuro, pretendemos gerar modelos totalmente automaticamente e verificar propriedades de especificação de missão adicionais não cobertas atualmente. Avaliamos nossa abordagem em uma missão robótica de especificação de uma missão logística de alimentos e os resultados mostram que o comportamento esperado é verificado corretamente e as propriedades correspondentes satisfeitas na ferramenta de verificação do modelo UPPAAL.


  • Mostrar Abstract
  • The need to leverage means to specify robotic missions from a high abstraction level has gained momentum due to the popularity growth of robotic applications. As such, it is paramount to provide means to guarantee that not only the robotic mission is correctly specified, but that it also guarantees degrees of safety given the growing complexity of tasks assigned to Multi-Robot Systems (MRS). Therefore, robot missions now need to be specified and formally verified for both robots and other agents involved in the robotic mission operation. However, many mission specifications lack a streamlined verification process that ensures that all mission properties are thoroughly verified through model checking. This work proposes a preliminary model checking process for mission specification and decomposition of MRS in UPPAAL model checker. In particular, we present a semi-automated model containing hierarchical domain definition properties transformed into UPPAAL templates and mission properties formalized into the UPPAAL timed automata language TCTL. In the future, we intend to fully generate models automatically and verify additional mission specification properties not covered currently. We have evaluated our approach in a robotic mission of a food logistic mission specification and results show that the expected behaviour is correctly verified and the corresponding properties satisfied in the UPPAAL model checking tool.

3
  • Guo Ruizhe
  • Melhorando a qualidade da maquina de tradução Chinês para Português com RoBERTa

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • MARISTELA TERTO DE HOLANDA
  • THIAGO DE PAULO FALEIROS
  • ZHAO LIANG
  • Data: 31/01/2023

  • Mostrar Resumo
  • As mudanças contínuas na época da informação promovem o desenvolvimento do campo da tradução e da tradução automática, acompanhadas pelo surgimento da inteligência artificial, mostrando uma tendência e apresentando próspero desenvolvimento. A tradução automática é um tópico importante no processamento de linguagem natural. A aplicação da tradução automática neural na tradução automática foi revivida e desenvolvida nos últimos anos. Com a introdução de algoritmos de excelência e a melhora da capacidade de processamento dos computadores, a tradução automática neural mostrou-se com grande potencial.

         Existem grandes diferenças na forma e na expressão da linguagem entre o português e o chinês. A comunicação entre o chinês e o português está em fase de desenvolvimento, e os materiais básicos de tradução são muito escassos. O estudo da tradução automática entre chinês e português não só servirá no auxílio às populações de língua chinesa e portuguesa, como também é tema de suma importância para a tradução entre idiomas onde os dados básicos são escassos.

         Esta dissertação apresenta um estudo sobre Tradução Automática Neuronal ( Neural Machine Translation) para o par de línguas Português (PT)-Chinês (ZH) e adiciona as direções de tradução Chinês-Português (Brasil) e Português (Brasil)-Chinês. O objetivo é buscar um modelo mais adequado entre as línguas acima com algoritmos e arquiteturas avançadas, de forma a melhorar o nível atual de tradução chinês-português, bem como o nível de tradução Chinês-Português (Brasil).

         Modelos de tradução de última geração são utilizados na tradução automática chinês-português. O algoritmo RoBERTa é o mais avançado e a estrutura de segmentação mistas de palavras é usado para pré-treinamento, e o BERT é usado para tradução seguinte. No corpus paralelo chinês-português disponível e público, seleciona o Opensubtitles2016 que tem maior quantidade dos dados. E usa BLEU e Rouge-dois indicadores de avaliação que são mais versáteis na tradução automática.

         No final, obtivemos os resultados dos impactos de fatores diferentes na tradução automática chinês-português sob os recursos existentes e um modelo melhor de tradução automática chinês-português, ao mesmo tempo, descobrindo alguns trabalhos efetivos que devem ser feitos no campo da tradução automática chinês-português no futuro.


  • Mostrar Abstract
  • The continuous changes in the information age have promoted the development of the translation field, and machine translation, accompanied by the rise of artificial intelligence, is showing a trend of prosperity and development. Machine translation is an important topic in natural language processing. The application of neural machine translation in machine translation has been revived and developed in recent years. With the introduction of excellent algorithms and the improvement of computer computing power, neural machine translation has shown great potential.

         There are big differences in the form and expression of the language between Portuguese and Chinese, and the communication between Chinese and Portuguese is in the development stage, and the basic translation materials are very scarce. The study of automatic translation between Chinese and Portuguese will not only help Chinese and Portuguese speaking populations, but it is also an important topic for translation between languages where basic data are scarce.

         This dissertation presents a study on Neural Machine Translation (Neural Machine Translation) for the language pair Portuguese (PT)-Chinese (ZH) and adds the Chinese-Portuguese (Brazil) and Portuguese (Brazil)-Chinese translation directions. The objective is to seek a more suitable model among the above languages with advanced algorithms and architectures, in order to improve the current level of Chinese-Portuguese translation, as well as the level of Chinese-Portuguese (Brazil) translation.

         State-of-the-art translation models are used in Chinese-Portuguese machine translation. The algorithm RoBERTa is the most advanced, the mixed word segmentation framework is used for pre-training, and BERT is used for subsequent translation. In the available and public Chinese-Portuguese parallel corpus, select the Opensubtitles2016 that has the largest amount of data. And it uses BLEU and Rouge-two evaluation indicators that are more versatile in machine translation.

         In the end, we got the results of the impacts of different factors on Chinese-Portuguese machine translation under existing resources and a better model of Chinese-Portuguese machine translation, at the same time discovering some effective works that should be done in the field of Chinese-Portuguese machine translation in the future.

4
  • Yuri Barcellos Galli
  • Aprendizado de Máquina como auxílio na detecção de sinais de osteoporose analisando radiografias panorâmicas bucais

  • Orientador : BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • MEMBROS DA BANCA :
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • FLAVIO DE BARROS VIDAL
  • PEDRO DE AZEVEDO BERGER
  • FÁBIO WILDSON GURGEL COSTA
  • Data: 08/02/2023

  • Mostrar Resumo
  • A osteoporose é sinônimo de fragilidade óssea, e é uma doença silenciosa que só é detectada
    comumente após já ter causado danos à pessoa que a possui. Essa doença de fragilidade
    óssea torna a fratura mais comum e mais danosa aos seus portadores, e por isso é uma
    questão de saúde pública. Identificar a doença em estágio inicial é essencial para ajudar a
    evitar seus danos, e nessa tarefa a inteligência artificial e o aprendizado de máquina têm
    demonstrado grande ajuda nos últimos anos. Os algoritmos de aprendizado de máquina
    podem prever o risco de osteoporose analisando as imagens do paciente provenientes de
    exames de rotina, como radiografias panorâmicas.
    A metodologia proposta conta com um processo de dois passos, que é composto por
    preprocessamento de imagens e aprendizado de máquina. O preprocessamento de imagens
    consistiu em transformar as imagens panorâmicas bucais originais brutas em regiões de
    interesse reduzidas, mais específicas e mais claras para a classificação. A etapa de apren-
    dizado de máquina consistiu em fornecer essas imagens preprocessadas para algoritmos
    computacionais as classificarem. Este trabalho propõe uma arquitetura de Rede Neural
    Convolucional (CNN), comparada com Support Vector Machine (SVM) e Random Forest
    (RF), que visa identificar sinais de osteoporose nesse tipo de imagem, com objetivo de
    melhorar os resultados de técnica de referência, a CNN do artigo [1], ao utilizar a es-
    trutra CNN modificada para realizar uma detecção automática de osteoporose com alta
    sensibilidade e utilizar o método RF para um sistema com especificidade alta.
    Na sensibilidade, a CNN customizada proposta obteve 77,19%, enquanto que a CNN de
    referência obteve 70,18%. Na especificidade, a Random Forest proposta obteve 75,95%,
    enquanto que a CNN de referência obteve 22,78%. Combinando esses resultados, con-
    seguimos melhorar o que é obtido pela técnica de referência para o conjunto de dados
    apresentado, que é bastante desafiador, de pacientes idosos de comunidades carentes, em
    imagens analógicas com diversos artefatos e características que dificultam a classificação.


  • Mostrar Abstract
  • Osteoporosis is synonymous with bone fragility, and it is a silent disease that is only detected
    commonly after it has already caused harm to the person who has it. This disease of frailty
    bone makes the fracture more common and more harmful to its bearers, and for this reason it is a
    public health issue. Identifying disease at an early stage is essential to help
    prevent its damage, and in this task artificial intelligence and machine learning have
    shown great help in recent years. Machine learning algorithms
    can predict the risk of osteoporosis by analyzing patient images from
    routine tests, such as panoramic radiographs.
    The proposed methodology has a two-step process, which is composed of
    image preprocessing and machine learning. The image preprocessing
    consisted of transforming the raw original panoramic buccal images into regions of
    reduced interest, more specific and clearer for classification. The learning stage
    machine learning consisted of supplying these preprocessed images to algorithms
    computations classify them. This work proposes a Neural Network architecture
    Convolutional (CNN), compared with Support Vector Machine (SVM) and Random Forest
    (RF), which aims to identify signs of osteoporosis in this type of image, with the aim of
    improve the results of reference technique, the CNN of the article [1], when using the s-
    CNN trutra modified to perform an automatic detection of osteoporosis with high
    sensitivity and use the RF method for a system with high specificity.
    In sensitivity, the proposed customized CNN obtained 77.19%, while the CNN of
    reference obtained 70.18%. In specificity, the proposed Random Forest obtained 75.95%,
    while the reference CNN obtained 22.78%. Combining these results,
    we continue to improve what is obtained by the reference technique for the dataset
    presented, which is quite challenging, of elderly patients from poor communities, in
    analog images with various artifacts and characteristics that make classification difficult.

5
  • Beatriz Fragnan Pimento de Oliveira
  • Ciclo de Vida de Data Warehouse Baseado em NoSQL: Adaptações e Análise de Desempenho de Arquiteturas

  • Orientador : MARISTELA TERTO DE HOLANDA
  • MEMBROS DA BANCA :
  • MARISTELA TERTO DE HOLANDA
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • CELIA GHEDINI RALHA
  • DANIEL CARDOSO MORAES DE OLIVEIRA
  • Data: 23/02/2023

  • Mostrar Resumo
  • O contexto de Data Warehouse (DW) encontra-se em constante transformação nas or- ganizações públicas e privadas. Tendo em vista que os DW originalmente se apoiavam nos bancos de dados relacionais, com o surgimento do Big Data, novas propostas para a gestão de grandes volumes de dados têm sido definidas na literatura, motivando um investimento em soluções alternativas por parte de diversas organizações. Como centro de um Sistema de Apoio à Decisão (SAD), o DW precisa extrair valor dessa grande massa de dados disponível. Assim, uma das alternativas existentes é utilizar soluções Not-only SQL (NoSQL) para modelar e processar DW, devido às suas características de flexibilidade e escalabilidade. Nesse contexto, este trabalho tem por objetivo analisar os desafios advindos da adoção do novo paradigma (NoSQL) e sugerir uma adaptação ao ciclo de vida de DW proposto por Kimball, quando se migra para o paradigma NoSQL, para diferentes bancos de dados NoSQL pré-selecionados. Posteriormente, será feito um estudo caso para desenvolver DW baseados em bancos de dados NoSQL com dados abertos do Exército Brasileiro. Com a implementação do estudo de caso será possível não só verificar a influência da modelagem de dados no desempenho das consultas selecionadas, mas também realizar uma comparação de desempenho dos paradigmas relacional e não-relacional.

     

     


  • Mostrar Abstract
  • The Data Warehouse (DW) context is constantly changing in public and private organizations. Considering that DWs originally relied on relational databases, with the emergence of Big Data, new proposals for the management of large volumes of data have been defined in the literature, motivating an investment in alternative solutions by several organizations. As the center of a Decision Support System (DSS), the DW needs to extract value from this large mass of available data. Thus, one of the existing alternatives is to use Not-only SQL (NoSQL) solutions to model and process DW, due to its flexibility and scalability characteristics. In this context, this work aims to analyze the challenges arising from the adoption of the new paradigm (NoSQL) and to suggest an adaptation to the DW life cycle proposed by Kimball, when migrating to the NoSQL paradigm, for different pre-built NoSQL databases. selected. Subsequently, a case study will be carried out to develop DW based on NoSQL databases with open data from the Brazilian Army. With the implementation of the case study, it will be possible not only to verify the influence of data modeling on the performance of the selected queries, but also to perform a performance comparison of the relational and non-relational paradigms.

6
  • PEDRO BORGES PIO
  • Recomendação de algoritmos de detecção de ruído via meta-aprendizado

  • Orientador : LUIS PAULO FAINA GARCIA
  • MEMBROS DA BANCA :
  • ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
  • LUIS PAULO FAINA GARCIA
  • THIAGO DE PAULO FALEIROS
  • VINICIUS RUELA PEREIRA BORGES
  • Data: 24/02/2023

  • Mostrar Resumo
  • Este trabalho apresenta uma solução de recomendação de algoritmos de detecção de ruído por meio de técnicas de Meta-Aprendizado (MtL). Primeiramente, foi realizada uma revisão sistemática da literatura referente ao tema de MtL e recomendação de algoritmos de pré-processamento. Na revisão foram verificadas quais as técnicas de pré-processamento, meta-características, algoritmos de Aprendizado de Máquina (AM) e métricas de desempenho são mais utilizados na área de recomendação de algoritmos de pré-processamento. Em seguida foram implementadas duas abordagens diferentes para a recomendação de filtros de ruído por meio de técnicas de MtL. A primeira é uma abordagem de ranqueamento (MtL-Rank), que realiza a sugestão por meio de regressores com objetivo de prever o valor da métrica f1-score. A outra abordagem realiza a recomendação por meio de uma sequência de classificadores encadeados (MtL-Multi). Também foi avaliado o desempenho das abordagens ao realizar a recomendação dos filtros juntamente com seus hiperparâmetros. No total, foram utilizados oito filtros de ruído ou 27 quando consideradas as suas variações de hiperparâmetros, quatro técnicas de AM para se extrair a métrica de desempenho e três meta-ranqueadores ou meta-classificadores para se realizar a sugestão. O sistema é avaliado no nível meta e no nível base. No nível meta é avaliado o desempenho dos algoritmos de recomendação por meio da sua acurácia. Já no nível base é verificado o ganho médio na métrica de desempenho (f1-score) ao aplicar cada uma das abordagens. Os resultados mostraram que a abordagem MtL-Rank obteve um ganho médio maior no desempenho, atingindo resultados significativamente melhores que o filtro utilizado como baseline. Por outro lado, a abordagem MtL-Multi obteve resultados melhores no nível meta, chegando atingir uma acurácia de 49%. Além disso, foi verificado que a recomendação dos hiperparâmetros em conjunto com o filtro pode gerar um ganho no desempenho da recomendação.


  • Mostrar Abstract
  • This work implements a noise detection algorithm recommendation using meta-learning techniques. First, a systematic review of the literature on the subject of meta-learning for preprocessing algorithm recommendation was performed. The review verified which preprocessing techniques, meta-features, machine learning algorithms and performance metrics are commonly used in the area of recommending preprocessing algorithms. Next, two different approaches were implemented for recommending noise filters using meta- learning techniques. The first is a ranking approach (MtL-Rank), which performs the suggestion using regressors and predicts the value of the performance metric f1-score. The other approach performs the recommendation through a sequence of linked classifiers (MtL-Multi). The performance of the approaches was also evaluated when recommending the filters together with their hyperparameters. In total, we used eight noise filters or 27 when considering their hyperparameter variations, four machine learning techniques to extract the performance metric and three meta-rankers or meta-classifiers to perform the recommendation. The system is evaluated at both the meta and base levels. At the meta level, the performance of a meta-learner is evaluated through their accuracy. At the base level, the average gain in the performance metric (f1-score) is verified. The results showed that the MtL-Rank approach obtained a higher average gain at the base level, obtaining significantly better results than the filter used as baseline. On the other hand, the MtL-Multi approach obtained better results at the meta level, reaching an accuracy up to 49%. In addition, it was verified that the suggestion of hyperparameters together with the noise filter can generate a gain in the performance when compared with only recommending the filter.

7
  • Matheus Schmitz Oliveira
  • Modelo Contextual de Negociação no Mercado de Ações Brasileiro com Algoritmo de Aprendizado por Reforço Profundo.

  • Orientador : GERALDO PEREIRA ROCHA FILHO
  • MEMBROS DA BANCA :
  • GERALDO PEREIRA ROCHA FILHO
  • MARCELO ANTONIO MAROTTA
  • VINICIUS RUELA PEREIRA BORGES
  • RENATO HIDAKA TORRES
  • Data: 10/03/2023

  • Mostrar Resumo
  • As bolsas de valores estão presentes na sociedade ao longo dos últimos séculos, sendo fundamentais para a movimentação da economia e construção de grandes fortunas. No entanto, os preços das companhias oscilam, tornando desafiadora a tarefa de identificação das melhores oportunidades de compra e venda de suas ações. Nesse sentido, o uso de algoritmos para a negociação automática nas bolsas de valores ganhou evidência, apresentando características positivas como a velocidade e isenção de sentimentos na tomada de decisão. O Aprendizado por Reforço (RL) é aplicado em problemas envolvendo sequências de decisões em ambientes complexos, sendo promissor para a modelagem de ambientes de negociação de ativos. Apesar do grande avanço observado nas publicações recentes, foi identificada uma lacuna relacionada à combinação de dados numéricos do mercado e dados textuais provenientes de múltiplas fontes de informação. Dessa forma, o presente trabalho preenche a lacuna encontrada ao investigar, propor e validar o desenvolvimento de um modelo contextual baseado em Aprendizado por Reforço Profundo (DRL) para a negociação individualizada de ativos no mercado financeiro brasileiro. A proposta foi avaliada em quatro diferentes cenários, a partir de combinações entre a quantidade de dados utilizados e diferentes esquemas de recompensa adotado pelo agente de DRL do modelo contextual treinado. Para a avaliação foram escolhidos três benchmarks: investimento inicial, Buy & Hold da empresa específica e Buy & Hold do BOVA11. Os resultados mostraram que o modelo contextual desenvolvido superou o patrimônio líquido inicial investido em 94.5% dos casos no melhor caso. Além disso, os cenários que utilizaram o índice Sharpe como função de recompensa reportaram mais patrimônios líquidos finais acima dos benchmarks selecionados. Por fim, todos os cenários consideram a simulação de taxas de transação cobradas pelas instituições financeiras, tornando o resultado ainda mais realista.


  • Mostrar Abstract
  • Stock exchanges have been present in society over the last few centuries, being fundamental for moving the economy and building great fortunes. However, company prices fluctuate, making the task of identifying the best opportunities for buying and selling their shares a challenge. In this sense, the use of algorithms for automatic trading on stock exchanges gained evidence, showing positive characteristics such as efficiency and support of feelings in decision-making. Reinforcement Learning is applied to problems involving sequences of decisions in complex environments, being promising for modeling asset trading environments. Despite the significant advance seen in recent news, a gap was identified related to the combination of numerical market data and textual data from multiple sources of information. Thus, the present work fills a gap found when investigating, proposing, and validating the development of a contextual model based on Deep Reinforcement Learning for the individualized trading of assets in the Brazilian financial market. The proposal was evaluated in four different scenarios, based on the combination between the amount of data used and various reward schemes adopted by the DRL agent of the trained contextual model. For the evaluation, three benchmarks were chosen: initial investment, Buy & Hold of the specific company and Buy & Hold of BOVA11. The results appreciated that the developed contextual model outperformed the invested initial equity in 94.5% of cases in the best case. Furthermore, the scenarios that used the Sharpe ratio as the reward function reported more net worth above the selected benchmarks. Finally, all scenarios consider the simulation of transaction fees charged by financial institutions, making the result even more realistic

8
  • Rodrigo Pereira de Mesquita
  • Guide for Elicitation techniques applied to Agile Software Development

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • VANDER RAMOS ALVES
  • SABRINA DOS SANTOS MARCZAK
  • Data: 27/04/2023

  • Mostrar Resumo
  • As técnicas de elicitação de requisitos são essenciais para apoiar os engenheiros de requisitos a obter uma melhor compreensão das necessidades dos usuários e das partes interessadas. Embora existam diversas técnicas disponíveis para apoiar as fases da Engenharia de Requisitos (ER), podem ocorrer dúvidas nas equipes de desenvolvimento de software sobre qual técnica utilizar durante a atividade de elicitação de requisitos. Objetivo: O objetivo desse trabalho é identificar as técnicas de elicitação de requisitos mais utilizadas na literatura e comparar com as técnicas mais usadas pelos profissionais na indústria. Além disso, identificam-se os desafios relacionados à elicitação de requisitos, os prós e contras das principais técnicas identificadas na literatura, e baseado nos prós e contras, analisam-se combinações possíveis das técnicas de elicitação de requisitos que podem minimizar os desafios identificados na literatura e na indústria. Método: Realizou-se uma Revisão Sistemática da Literatura (SLR) para identificar as técnicas de elicitação de requisitos e os desafios discutidos na literatura ou na indústria. Ainda dentro da Revisão Sistemática da Literatura, foi realizada a técnica de snowballing, para revisão dos estudos primários encontrados dentro de outras SLR que foram trazidas pela string de busca. Além disso, realizou-se uma pesquisa de opinião (survey) para investigar a percepção dos praticantes da área de desenvolvimento de software (individuos trabalhando na indústria de Software, independentemente da posição ou papel desempenhado) em relação às técnicas identificadas e posteriormente compará-las com os resultados obtidos na SLR. Resultados: Foram identificados 54 estudos primários na SLR e eles demonstraram que as técnicas tradicionais ainda são as mais utilizadas tanto na literatura quanto nos projetos da indústria de software. Além disso, algumas técnicas, como Persona, estão ganhando espaço, ajudando os engenheiros de requisitos a encontrar maneiras diferentes de realizar a elicitação de requisitos junto aos usuários finais e as partes interessadas. Ademais, baseado nos pontos fortes encontrados na literatura para cada técnica, foi possível sugerir combinações de técnicas que pelas forças ou pontos a favor identificados na SLR, podem ser combinadas para superar a maior parte dos desafios identificados. Conclusão: As técnicas mais mencionadas pela literatura e usadas na indústria de software foram: Prototipação, Entrevistas, Estórias de Usuário e Cenários. A combinação do uso dessas técnicas com, por exemplo, a técnica Persona podem ajudar a superar os desafios identificados na literatura.
    O estudo conta com a descrição das principais técnicas identificadas na literatura, contendo seus prós e contras e poderá apoiar os engenheiros de requisitos durante a elicitação de requisitos. A disponibilização online do estudo poderá para apoiar os praticantes de software na elicitação de requisitos, permitirá que a comunidade de engenharia de software possa contribuir com feedbacks relacionados a combinação do uso das técnicas, permitindo assim uma melhoria e divulgação das percepções das combinações realizadas entre as técnicas da ER pelos profissionais das equipes de desenvolvimento de software. Assim, o guia poderá apoiar os praticantes da área de desenvolvimento de software na escolha das técnicas a serem usadas e ou combinadas.


  • Mostrar Abstract
  • Background: Requirements elicitation techniques are essential to support requirements
    engineers to gain a better understanding of the needs of users and stakeholders. Al-
    though there are several techniques available to support the Requirements Engineering
    (RE) software development teams might be doubtful about which technique to use during
    requirements elicitation. Objective: The goal of this work is to identify Requirements
    Elicitation (RE) Techniques most used in the literature and compare with the techniques
    most used by professionals in the industry. In addition, we identified the challenges re-
    lated to requirements elicitation, the pros and cons of the main techniques identified in
    the literature, and based on the pros and cons, analyze possible combinations of require-
    ments elicitation techniques that can minimize the challenges identified in literature and
    industry. Method: We performed a Systematic Literature Review (SLR) to identify
    requirements elicitation techniques and challenges discussed in the literature or industry.
    Moreover, we performed a Survey to investigate the perception of software practitioners
    (individuals working in the software industry in a large variety of roles and positions)
    in relation to the techniques identified and subsequently compare them with the results
    obtained in the SLR. Finally, using Focus Group technique, we executed two validation
    sessions with nineteen specialists to evaluate technique combinations and the findings
    provided on this guide. Results: 54 primary studies were identified in the SLR and they
    demonstrated that traditional techniques are still the most used in both literature and
    software industry projects. In addition, some techniques, such as Persona, are gaining
    ground, helping requirements engineers to find different ways to elicit requirements from
    end users and stakeholders. Moreover, we have investigated combinations of techniques
    already discussed and presented in literature, also based on the strengths found in the
    literature for each technique, it was possible to identify combinations of techniques that
    by the forces or points in favor identified in the SLR, could be combined to overcome most
    of the challenges identified. Furthermore, validation sessions provided the view of special-
    ists that complemented the techniques and combinations under use by the community.
    Conclusion The most mentioned techniques in the literature at the same time they are
    used in the software industry are: Prototyping, Interview, User Stories, Brainstorming,
    Observation, Scenarios, Questionnaires and Mind Mapping. In addition, Ethnography,
    Joint Application Development (JAD) and Workshop have many references in literature
    while are not appealing for real projects in industry. On the other hand, Persona at least
    from the papers retrieved during this search is not largely discussed in literature whereas
    it has shown to be widely used in the industry. Combine the use of RE techniques can
    help overcome the challenges identified in the literature. A guide with a description of all
    techniques identified in the literature, containing their advantages and disadvantages can
    support the requirements engineers during the requirements elicitation. The provision
    of this study to support software practitioners in eliciting requirements, will allow the
    software engineering community to contribute feedback related to the combination of the
    use of techniques, thus allowing an improvement and dissemination of the perceptions of
    the combinations made between the RE techniques by the professionals of the software
    development teams. Hence, the guide can support software practitioners in choosing the
    techniques to be used and (or) combined.

9
  • Cristiano Perez Garcia
  • Uma Solução de Segurança Operacional para a Mobilidade Aérea Urbana com Aprendizado de Reforço Profundo

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • GERALDO PEREIRA ROCHA FILHO
  • MARCELO ANTONIO MAROTTA
  • MARCELO XAVIER GUTERRES
  • Data: 15/06/2023

  • Mostrar Resumo
  • Aeronaves com propulsão elétrica e com capacidade de efetuar pousos e decolagens na vertical, também conhecidos como eVTOL estão em desenvolvimento por uma série de fabricantes e tem o potencial de revolucionar a mobilidade aérea urbana nos próximos anos. A adoção tende a ser gradual, porém uma vez que um certo nível de maturidade desse tipo de transporte seja atingido, a grande quantidade esperada de aeronaves em voos simultâneos trará desafios para os sistemas de controle de tráfego aéreo. Além disso, estas aeronaves poderão operar sem piloto a bordo. A proposta é de que as aeronaves executem voos em rotas diretas, realizando desvios apenas quando necessário. Portanto é necessário que uma série de sistemas de detecção e resolução de conflitos atuem de forma redundante. Entre eles, está a resolução de tática de conflitos.  Isso exige o desenvolvimento de ferramentas específicas para atender o novo cenário, constituído por aeronaves com características de desempenho até então inexistentes.  Este trabalho investiga a possibilidade de utilização de modelos de aprendizado de reforço profundo para a solução deste problema. A detecção dos conflitos pode ser efetuada de modo independente, a partir de sistemas embarcados como o ADS-B. Após a fase de treinamento, modelos de aprendizado de reforço profundo são capazes de sugerir ações que permitam alcançar o objetivo desejado mesmo em configurações de conflitos que não tenham sido observadas previamente. Isso faz com que estes modelos sejam adequados à resolução do problema de resolução de conflitos, visto que é inviável executar um treinamento com todos os conflitos possíveis. Um sistema baseado nos modelos Deep Q Network foi utilizado para gerenciamento das trajetórias em caso de detecção de conflito, realizando desvios de rota  com o objetivo de solucionar o conflito bem como afastar as aeronaves envolvidas o mínimo necessário de suas trajetórias ideais. Foi implementado um simulador customizado para a realização de testes utilizando diversos agentes de aprendizado de reforço profundo, bem como a comparação com estratégias alternativas. Os resultados indicam que os modelos utilizados são capazes de oferecer manobras capazes de reduzir o número de conflitos sem que as manobras realizadas para os desvios afetem de forma significativa o tempo de deslocamento ou consumo de combustível.


  • Mostrar Abstract
  • Aircraft with electric propulsion and capable of performing vertical takeoff and landings, also known as eVTOL, are under development by several manufacturers and have the potential to revolutionize urban air mobility in the coming years. Adoption tends to be gradual, but once a certain level of maturity of this type of transport is reached, the expected large number of simultaneous flights will pose challenges for air traffic control systems. In addition, these aircraft are expected to be able to operate without a pilot on board. Furthermore, aircraft are supposed to fly on direct routes, making detours only when necessary. Therefore, a set of conflict detection and resolution systems is desired to act redundantly. One of those systems is the one responsible for the tactic conflict resolution. This requires developing specific tools to meet the new scenario, consisting of aircraft with performance characteristics that are not yet existent. This work investigates the possibility of using deep reinforcement learning models to solve this problem. Conflict detection can be performed independently using embedded systems as sensors, such as ADS-B. After the training phase, deep reinforcement learning models can suggest actions to achieve the desired goal even in scenarios that have not been previously observed. This capability makes these models suitable for solving the problem of conflict resolution since it is impracticable to train a system with all possible conflict configurations. A system based on Deep Q Network models was used to manage the trajectories in case of conflict detection. It carried out route deviations to resolve the conflict and deviated the aircraft involved the minimum necessary from their ideal trajectories. A customized simulator was implemented to perform tests using several deep reinforcement learning agents and compare them with alternative strategies. The obtained results indicate that the models can suggest maneuvers capable of reducing the number of conflicts without significantly affecting displacement or fuel consumption.

10
  • Rafael Oliveira Ribeiro
  • Métodos para cálculo de razão de verossimilhança para utilização de sistemas de reconhecimento facial em cenários forenses

  • Orientador : FLAVIO DE BARROS VIDAL
  • MEMBROS DA BANCA :
  • DAVID MENOTTI GOMES
  • DIBIO LEANDRO BORGES
  • FLAVIO DE BARROS VIDAL
  • JOÃO CARLOS RAPOSO NEVES
  • Data: 19/06/2023

  • Mostrar Resumo
  • Na área forense, o exame pericial de comparação facial tem adquirido maior relevância à medida em que cresce o número de dispositivos com capacidade de gravação de imagens e, por conseguinte, aumenta o número de crimes em que os autores têm suas faces capturadas em imagens. Atualmente esse exame pericial é baseado na análise e comparação manual de elementos morfológicos da face e os resultados são expressos de forma qualitativa, o que dificulta a sua reprodutibilidade e a combinação de seus resultados com outras evidências pela instância julgadora. Este trabalho tem como objetivo avaliar métodos para expressar os resultados do exame de forma quantitativa, com o cálculo de razão de verossimilhança (do inglês Likelihood-Ratio – LR) a partir de escores obtidos de sistemas de reconhecimento facial. Além de facilitar a reprodutibilidade dos resultados, aspecto crítico na área forense, os métodos avaliados permitem a validação empírica de desempenho nas condições de cada caso. Neste trabalho foram avaliados métodos paramétricos e não-paramétricos para cálculo de LR a partir de escores, utilizando dois sistemas de reconhecimento facial de código aberto, ArcFace e FaceNet, e cinco bases com imagens faciais representativas de cenários frequentemente encontrados em casos periciais: imagens de mídias sociais e de câmeras de CFTV. Além disso, foram realizados experimentos relacionados à agregação de embeddings em casos onde há mais de uma imagem do indivíduo de interesse. Estes experimentos demonstraram melhora substancial no cálculo de LR a partir de sistemas de reconhecimento facial, especialmente nos cenários envolvendo imagens de pior qualidade: redução na Cllr em até 95% (de 0,249 para 0,012) para imagens de CFTV e de até 96% (de 0,083 para 0,003) para imagens de mídias sociais.


  • Mostrar Abstract
  • Forensic face comparison is becoming more relevant as the number of devices with image recording capabilities increases, with a consequential increase in the number of crimes in which the face of the perpetrator is recorded. This forensic examination is still based on the manual analysis and comparison of morphological features of the faces. Its results are expressed qualitatively, making it difficult to reproduce and combine with other evidence. This work evaluates methods to obtain a quantitative result for the examination, with the computation of score-based Likelihood-Ratio - LR. Face recognition systems are used to obtain scores that are then converted to an LR. The methods investigated in this work facilitate reproducibility, a critical aspect in forensics, and it also allows for the empirical validation of performance in the conditions of each forensic case. We evaluate parametric and non-parametric methods for LR computation. Two open-source face recognition models were used (ArcFace and FaceNet) on images from five datasets that are representative of common scenarios in forensic casework: images from social media and images from CCTV cameras. We also investigate strategies for embedding aggregation in cases where there is more than one image of the person of interest. These experiments demonstrate substantial improvements in forensic evaluation settings, with improvements in Cllr of up to 95% (from 0.249 to 0.012) for CCTV images and of up to 96% (from 0.083 to 0.003) for social media images.

11
  • Ismael Coelho Medeiros
  • DogeFuzz: um framework extensível para estudos de fuzzing na análise dinâmica de Smart Contracts

  • Orientador : RODRIGO BONIFACIO DE ALMEIDA
  • MEMBROS DA BANCA :
  • RODRIGO BONIFACIO DE ALMEIDA
  • EDUARDO ADILIO PELINSON ALCHIERI
  • GENAINA NUNES RODRIGUES
  • WILKERSON DE LUCENA ANDRADE
  • Data: 07/07/2023

  • Mostrar Resumo
  • Smart contract são programas Turing-completo que são executados em uma rede blockchain. Muitas vezes, este tipo de programa armazena ativos digitais valiosos e em um blockchain como o Ethereum, o binário de cada smart contract está publico e transparente, e por isso pode ser acessado por qualquer um. Isso faz com que este tipo de programa seja alvo constante de ataques e que a segurança de um contrato seja algo crítico. Este trabalho visa experimentar técnicas avançadas de fuzzing na detecção automática de vulnerabili- dades em smart contracts. A técnica que será explorada é a directed greybox fuzzing que tem como objetivo gerar inputs que explorem pontos específicos do código. Para isso, a ferramenta ContractFuzzer será estendida de forma que consiga utilizar esta nova técnica. Para avaliar a performance desta extensão será preciso criar um dataset para experimentar a capacidade exploração das duas versões da ferramenta ContractFuzzer.


  • Mostrar Abstract
  • Smart contracts are Turing-complete programs that are executed in a blockchain network. Many times, this type of program stores valuable digital assets and in a blockchain such as Ethereum, each smart contract’s binary is public and transparent, and that is why it can be accessed by anyone. This makes this type of program to be a constant target for many kinds of attack e its security to be critical. This work aims to experiment advanced fuzzing techniques in automatic vulnerability detection in smart contracts. The technique to be explored is directed greybox fuzzing, which has the objective of generating input that explore specific points of the program. For that, the tool ContractFuzzer will be extended to use this new technique. To evaluate the performance of this version of the tool, it is necessary to create a dataset to experiment the exploration capacity of the two versions of ContractFuzzer.

12
  • Rodrigo Cardoso Aniceto
  • ProjPlag: Uma Aplicação para Auxiliar o Processo de Detecção de Plágio em Cursos Introdutórios de Programação 

  • Orientador : MARISTELA TERTO DE HOLANDA
  • MEMBROS DA BANCA :
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • DILMA DA SILVA
  • MARISTELA TERTO DE HOLANDA
  • VINICIUS RUELA PEREIRA BORGES
  • Data: 12/07/2023

  • Mostrar Resumo
  • Este trabalho apresenta a aplicação ProjPlag desenvolvida para auxiliar o professor a identificar alunos suspeitos de plágio em códigos fontes em uma disciplina introdutória de programação. Para criar a aplicação, foi feita uma análise das ferramentas de detecção de plágio Moss e JPlag e dos dados dos alunos extraídos da plataforma de ensino Moo- dle, isso permitiu aprender mais sobre o perfil de alunos que copiam códigos e, com base nisso, é possível traçar estratégias voltadas a reduzir a ocorrência dessa prática. A apli- cação foi então desenvolvida com a funcionalidade de gerar relatórios integrando os dados disponíveis. Esses relatórios contêm percentuais de similaridades entre códigos, notas, padrões de desenvolvimento e padrões de envio dos trabalhos, para uso pelo professor. O ProjPlag também foi testado na automatização da identificação de alunos que plagiaram, apresentando uma taxa de acerto de 90%. Pesquisas futuras podem ser feitas aumentando o volume de dados e aperfeiçoando sua coleta. 


  • Mostrar Abstract
  • This work proposes an application to help teachers identify students suspected of plagiarism in source codes in an introductory programming course with a virtual teaching environment. This is done through the integration of automatic plagiarism detection tools with data on student behavior in the course, for the generation of unified reports. This behavioral data includes the assignment submission pattern and classroom data such as attendance and grades. It can be applied in distance or face-to-face teaching. This application will be tested with real data in order to simplify the plagiarism identification process. It is also expected to learn more about the profile of students who copy source codes to outline policies aimed at reducing the occurrence of this practice.

13
  • RUBENS MARQUES CHAVES
  • Predição de falência utilizando dados sequenciais não estacionários em uma abordagem de fluxo de dados. 

  • Orientador : LUIS PAULO FAINA GARCIA
  • MEMBROS DA BANCA :
  • LUIS PAULO FAINA GARCIA
  • CELIA GHEDINI RALHA
  • THIAGO DE PAULO FALEIROS
  • RICARDO CERRI
  • Data: 20/07/2023

  • Mostrar Resumo
  • As previsões de falência corporativas são importantes para empresas, investidores e autoridades regulatórias. No entanto, como a maioria dos modelos de previsão de falência em estudos anteriores foram baseados em uma única dimensão de tempo, eles tendem a ignorar as duas principais características de dados de dificuldades financeiras, conjuntos de dados desequilibrados e desvio de conceito do fluxo de dados. Para supera-los, este estudo tenta identificar as técnicas mais adequadas para o tratamento desses problemas em demonstrações financeiras fornecidas trimestralmente a CVM, utilizando um sistema de janelas deslizantes e com mecanismo de esquecimento para evitar a degradação do modelo preditivo. Um experimento empírico foi realizado em uma amostrada de dados coletados do portal de dados abertos da CVM, em um período de 10 anos (2011 a 2020), com 905 corporações distintas, 23.468 registros com 102 indicadores cada, sendo 21.750 de empresas sem dificuldade financeira e 1.718 de empresas com dificuldade financeira. Devido a características do problema, em especial o desbalanceamento, o desempenho do modelo foi medido através de AUC (área sob a curva ROC), G-measure e F-measure.


  • Mostrar Abstract
  • Corporate bankruptcy predictions are important to companies, investors and authorities. However, as most bankruptcy prediction models in previous studies have been based on a single time dimension, they tend to ignore the two main characteristics of financial distress data, unbalanced data sets and data stream concept drift. To overcome them, this study tries to identify the most appropriate techniques for dealing with these problems in financial statements provided quarterly by companies to the CVM, using a system of sliding windows and a forgetting mechanism to avoid the degradation of the predictive model. An empirical experiment was carried out on a sample of data collected from the CVM open data portal, over a period of 10 years (2011 to 2020), with 905 different corporations, 23,468 records with 102 indicators each. The majority, 21,750 companies, have no financial difficulties and 1,718 companies have financial difficulties. Due to characteristics of the problem, especially the data unbalance, the performance of the model was measured through AUC (area under the ROC curve), G-measure and F-measure.

14
  • NIKSON BERNARDES FERNANDES FERREIRA
  • Melhorando a segurança de programas numéricos

  • Orientador : MAURICIO AYALA RINCON
  • MEMBROS DA BANCA :
  • AARON DUTLE
  • LAURA TITOLO
  • MAURICIO AYALA RINCON
  • VANDER RAMOS ALVES
  • Data: 21/07/2023

  • Mostrar Resumo
  • Este trabalho discute como a precisão dos erros de arredondamento envolvidos em implementações
    reais do sistema de gerenciamento da NASA para veículos não tripulados DAIDALUS afetam a segurança
    geral do sistema. A biblioteca DAIDALUS fornece definições formais para os conceitos de Detecção
    e Evasão em aviônica demonstrados mecanicamente no assistente de provas PVS. No entanto, tais
    verificações são apenas certificados do bom comportamento da especificação do ponto de vista lógico, o
    que não garante a precisão dos algoritmos implementados sob restrições aritméticas de ponto flutuante.
    Nossa análise assume o padrão IEEE 754 de ponto flutuante, implementados em diversas linguagens de
    programação, e a técnica de verificação se baseia na geração de uma especificação de primeira ordem dos
    cálculos numéricos. Uma característica proeminente da abordagem é dividir a especificação em fatias
    definidas de acordo com os diferentes ramos de computação. O fatiamento é crucial para simplificar a
    análise formal das computações com aritmética de ponto flutuante.


  • Mostrar Abstract
  • This work discusses how the presence of round errors involved in real-world implementations of the
    NASA management system for unmanned vehicles DAIDALUS affect the overal safety of the system. The
    DAIDALUS library provides formal definitions for avionics’ Detect and Avoid concepts mechanically
    demonstrated in the proof assistant PVS. However, such verifications are just certificates of the well-
    behavior of the specification from the logical point of view, which do not guarantee the accuracy
    of the algorithms implemented under floating-point arithmetic.Our analysis assumes the IEEE 754
    floating point standards, implemented in several programming languages, and the verification technique
    is grounded on generating a first-order specification of the numerical computations. A prominent feature
    of the approach is splitting the specification into slices defined according to the different computation
    branches. Slicing is crucial to simplify the formal analysis of floating point arithmetic computations

    Nota: Suplente Mariano Miguel Moscato - National Insitute of Airspace - NASA LaRC

15
  • Fernanda Amaral Melo
  • Meta aprendizado para detecção de mudança de conceito não supervisionada

  • Orientador : LUIS PAULO FAINA GARCIA
  • MEMBROS DA BANCA :
  • LUIS PAULO FAINA GARCIA
  • GERALDO PEREIRA ROCHA FILHO
  • VINICIUS RUELA PEREIRA BORGES
  • ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
  • Data: 30/08/2023

  • Mostrar Resumo
  • O avanço tecnológico na geração e transmissão de dados potencializou a existência de muitas aplicações de fluxos de dados, estes ambientes altamente dinâmicos frequentemente acompanham o problema de mudança de conceito, situação em que as propriedades estatísticas das variáveis se altera ao longo do tempo acarretando na perda de performance de modelos de Aprendizado de Máquina. Este trabalho apresenta uma nova ferramenta para detecção de mudança de conceito por meio do uso de Meta Aprendizado em problemas de fluxo de dados que contenham atraso grande na chegada da variável alvo. Optou-se por utilizar o Meta Aprendizado por se tratar de uma técnica robusta e adaptada para problemas de fluxo de dados, no entanto, em oposição à sua abordagem tradicional de recomendação de algoritmos, fez-se uso de um regressor no nível meta que prevê a cada janela o desempenho do modelo base. Esta predição é então utilizada na geração de alertas de mudança de conceito antes da chegada da variável alvo. O treinamento do meta modelo foi feito com o uso de diversos meta atributos não supervisionados da literatura de Meta Aprendizado, além disso, foram adicionadas medidas não supervisionadas de detecção de mudança de conceito como parte dos atributos como forma de aumentar a capacidade preditiva do modelo gerado. O algoritmo foi aplicado em bases de dados usuais da literatura de fluxo de dados e o desempenho no nível meta é avaliado por meio do ganho acumulado do Erro Quadrático Médio com relação ao algoritmo original de Meta Aprendizado e à baseline, medida a partir da última janela com desempenho conhecido. Por fim, a importância das variáveis para o meta regressor é analisada para entender a contribuição dos novos meta atributos propostos nesta pesquisa. Resultados preliminares mostram que o algoritmo proposto gera, em média, uma redução de 12.8% no erro com relação ao Meta Aprendizado tradicional e de 38% com relação à baseline na predição de desempenho do modelo base. Espera-se, com os próximos passos, efetuar a criação do alerta de mudança de conceito baseado nas predições do meta modelo e comparar a técnica proposta com as métricas existentes de mudança de conceito em bases de dados que possuam mudança de conceito rotulada.


  • Mostrar Abstract
  • Advances in the data generation and transmission have enhanced the existence of many data flows applications, these highly dynamic environments often comes with the concept drift problem, phenomenon in which the statistical properties of the variables change over time, resulting in the performance loss of Machine Learning models. This work presents a new concept drift detection tool for Machine Learning systems through the use of Meta Learning. The algorithm was proposed for data stream like problems containing concept drift with large target arrival delay, Meta Learning was choosen because of its robustness and adaptation to data stream problems, however, unlike the traditional algorithm recommendation Meta Learning approach, a regressor was used at the meta level to predict the base model performance, these predictions can be used to generate concept drift alerts before the target arrival. The meta model training included the use of several unsupervised Meta Features from the Meta Learning literature, in addition, unsupervised concept drift detection metrics were added to the attributes in order to increase the predictive power of the generated meta regressor. The algorithm was applied in commonly used data streams databases and the performance at the meta level is evaluated through the Mean Squared Error compared to the original Meta Learning approach and to the baseline, a measure from the last known performance window. Finally, the importance of the variables for the meta regressor is analyzed to find the real contribution of the MFe proposed in this research, such as the concept change detection measures. Preliminary results show that the proposed algorithm generates, on average, an error reduction of 12.8% compared to the traditional Meta Learning and 38% compared to the baseline in predicting the performance of the base model. Future work includes the concept drift alert definition based on the meta model predictions and the comparison of the proposed technique with existing concept drift metrics databases with labeled concept drift.

16
  • Paulo Victor Gonçalves Farias
  • Proposta de um Protocolo de Disseminação de Mensagens em Redes Veiculares Ad Hoc para Aplicações Sensíveis à Acurácia de Posicionamento

  • Orientador : JACIR LUIZ BORDIM
  • MEMBROS DA BANCA :
  • EDUARDO ADILIO PELINSON ALCHIERI
  • JACIR LUIZ BORDIM
  • JO UEYAMA
  • MARCELO ANTONIO MAROTTA
  • Data: 22/09/2023

  • Mostrar Resumo
  • As aplicações para prevenção de acidentes em Redes Veiculares Ad Hoc (VANETs) desempenham um papel importante para garantir a segurança de motoristas, passageiros e pedestres. Seu funcionamento depende de requisitos rígidos relacionados a acurácia de posicionamento dos veículos. Para atender essas restrições, as aplicações exigem o envio frequente de mensagens periódicas, também conhecidas como beacons, contendo a posição geográfica, velocidade e direção do veículo. Em cenários de tráfego denso, a alta taxa de envio de beacons somada a difusão descoordenada de outras mensagens pode ocasionar em uma congestão na rede. Durante a congestão, o canal de transmissão se torna saturado, aumentando a perda de pacotes por erros ou colisões, bem quanto o atraso de entrega das mensagens. Vários trabalhos têm sido propostos para aliviar a congestão em redes veiculares, porém a maioria não considera a perda de acurácia de posicionamento que pode ocorrer como efeito colateral das estratégias usadas. Este trabalho contribui com um estudo sobre as limitações do canal de transmissão em redes veiculares, bem quanto uma definição detalhada do problema de congestão. Propõe-se um novo protocolo para a disseminação de mensagens em VANETs chamado APGP. O APGP utiliza uma arquitetura de três módulos para controlar a congestão causada por beacons, monitorar os veículos vizinhos e realizar o envio das mensagens de alerta. A proposta utiliza uma abordagem com ajuste de potência de transmissão para o envio de mensagens para grupos de vizinhos chamados de grupos geocast e um ajuste de taxa de envio de mensagens baseado na predição de posição feita localmente. O APGP foi implementado em um ambiente de simulação de redes veiculares e testado sob um cenário veicular urbano. Os resultados indicaram que a proposta conseguiu melhorar a taxa de recepção de pacotes, bem quanto reduzir o atraso de entrega e a taxa de ocupação do canal quando comparado a outros trabalhos relevantes. Por fim, constatou-se que o APGP conseguiu atender aos requisitos de acurácia de posicionamento das aplicações para veículos mais próximos, em detrimento de veículos localizados em regiões mais distantes.


  • Mostrar Abstract
  • Periodic message transmission is one of the possible ways to enable operation of applications in a Vehicular Ad-Hoc Network (VANET). These messages are known as beacons and they consist of information about a vehicle’s position, speed, and direction. Safety applications in VANETs dictate that beacons must be sent at high frequencies to en-
    sure reliable and efficient operation. However, due to the transmission channel restraints, the number of messages being transmitted simultaneously can lead to collisions in environments with high vehicle density. When there is a high number of collisions, new messages will not be sent correctly. This event is called broadcast storm. Congestion
    control algorithms have been proposed with effective solutions to this problem, adjusting parameters like transmission rate and transmission power. Despite this, it was noticed that these techniques can impair the operation of safety applications that rely on positioning information with a certain level of accuracy. In this work, a Proactive Geocast Beacon Transmission Algorithm(PGBTA) is proposed as a solution to control network congestion and ensure application positioning requirements. In PGBTA, beacons are transmitted by geocast, where neighbors of a node are divided into geocast groups according to their distance.PGBTA prioritizes sending more frequent updates to groups of neighbors at near distances through a position prediction mechanism, which considers the position accuracy requirements defined in the literature. Simulations were carried out in a real scenario where it was possible to verify the possibility of implementing the PGBTA algorithm, considering metrics such as number of beacons generated, delay between beacon transmissions, number of neighbors and positioning error.

     
     
17
  • Herval Alexandre Dias Hubner
  • Análise de evolução de linhas de produtos de software

  • Orientador : VANDER RAMOS ALVES
  • MEMBROS DA BANCA :
  • GENAINA NUNES RODRIGUES
  • LEOPOLDO MOTTA TEIXEIRA
  • VANDER RAMOS ALVES
  • VINICIUS RUELA PEREIRA BORGES
  • Data: 26/10/2023

  • Mostrar Resumo
  • No cenário atual da engenharia de software, as Linhas de Produtos de Software (LPS) emergem como uma abordagem fundamental para enfrentar os desafios da customização em massa. LPS permitem a construção de soluções individuais com base em componentes reutilizáveis, proporcionando eficiência e flexibilidade no desenvolvimento de software. As LPS são fundamentais para melhorar a produtividade e a qualidade no desenvolvimento de software, graças à reutilização de componentes e rápida adaptação a novos requisitos. A variabilidade é central em LPS, facilitando a adaptação a diversas situações de produtos através de recursos que podem ser ativados. A análise de LPS é crucial para identificar requisitos comuns e variantes, mas enfrenta desafios de falta de dados concretos e limitações de tempo. No entanto, a análise de LPS enfrenta desafios, como a escassez de estudos empíricos caracterizando e detalhando a evolução de LPS. Neste trabalho, desenvolvemos a ferramenta ASTool (software de análise de alterações na árvore de sintaxe abstrata) para examinar diversas Linhas de Produto de Software e assim, caracterizar a evolução das mesmas. Os resultados obtidos nesta análise revelam que, no que diz respeito à média de profundidade das alterações na Abstract Syntax Tree (AST), as modificações ocorrem em níveis superficiais, ou seja, próximas à raiz da árvore de sintaxe. Em relação à média de arquivos alterados por commit, observou-se uma quantidade significativa de arquivos modificados por commit. Quanto à média de lacunas (gaps) entre as linhas alteradas no código, os valores obtidos indicam uma baixa frequência de alterações. Os resultados deste estudo podem influenciar a decisão de utilizar ou não a técnica de memorização para melhorar a eficácia das análises.


  • Mostrar Abstract
  • In the current software engineering scenario, Software Product Lines (LPS) emerge as a fundamental approach to face the challenges of mass customization. LPS allow the construction of individual solutions based on reusable components, providing efficiency and flexibility in software development. LPS are fundamental for improving productivity and quality in software development, thanks to the reuse of components and rapid adaptation to new requirements. Variability is central to LPS, facilitating adaptation to diverse product situations through features that can be activated. LPS analysis is crucial for identifying common and variant requirements, but faces challenges of lack of hard data and time constraints. However, LPS analysis faces challenges, such as the scarcity of empirical studies characterizing and detailing the evolution of LPS. In this work, we developed the ASTool tool (software for analyzing changes in the abstract syntax tree) to examine several Software Product Lines and thus characterize their evolution. The results obtained in this analysis reveal that, with regard to the average depth of changes in the Abstract Syntax Tree (AST), modifications occur at superficial levels, that is, close to the root of the syntax tree. In relation to the average number of files changed per commit, a significant number of files modified per commit were observed. As for the average number of gaps between changed lines in the code, the values obtained indicate a low frequency of changes. The results of this study may influence the decision whether or not to use the memorization technique to improve the effectiveness of analyses.

18
  • Lucélia Vieira Mota
  • Reconhecimento de Entidades Nomeadas para Conteúdo Publicado em Diários Oficiais com Base em uma Abordagem de Supervisão Fraca

  • Orientador : THIAGO DE PAULO FALEIROS
  • MEMBROS DA BANCA :
  • ALAN DEMÉTRIUS BARIA VALEJO
  • GERALDO PEREIRA ROCHA FILHO
  • LUIS PAULO FAINA GARCIA
  • THIAGO DE PAULO FALEIROS
  • Data: 14/12/2023

  • Mostrar Resumo
  • O Reconhecimento de Entidade Nomeada é uma tarefa desafiadora de Processamento de Linguagem Natural, especialmente quando se trata de uma língua tão rica quanto o português. Quando aplicada em um cenário adequado à linguagem formal e a textos oficiais, a tarefa adquire uma nova camada de complexidade, lidando com um contexto léxico particular ao domínio em questão. Neste estudo será apresentado a geração de um corpus anotado de Licitação e Contratação Pública por meio da abordagem de supervisão fraca. Métodos de Supervisão Fraca podem ser utilizados quando grandes quantidades de dados anotados estão indisponíveis, caros para obter ou impraticáveis para anotar manualmente.
    Além disso, valida-se o conjunto de dados anotados com um corpora formal anotado por rotulação manual, a fim de avaliar se o corpus gerado do domínio poderia melhorar os algoritmos de Reconhecimento de Entidades Nomeadas. Para isso, realizaram-se experimentos com um modelo Conditional Random Fields, um modelo Bidirecional Long-Short Term Memory com uma camada adicional de redes convolucionais e, posteriormente, realizou-se a aplicação da Supervisão Fraca diretamente a geração do corpus a fim de avaliar se os resultados obtidos iriam melhorar a qualidade de geração do corpus.
    Conclui-se que a combinação de Reconhecimento de Entidades Nomeadas e abordagem supervisionada fraca podem alcançar a geração de um corpus com mais qualidade, além reduzir a anotação manual necessários para treinar os modelos de Reconhecimento de Entidades Nomeadas. Em alguns casos, a aplicação da Supervisão Fraca com o Reconhecimento de Entidades Nomeadas e aplicação direta de supervisão ao corpus alcançaram resultados satisfatórios em comparação aos modelos treinados por dados anotados à mão.


  • Mostrar Abstract
  • Training data labeling has become one of the main obstacles to the use of machine learning. Among several data labeling paradigms, weak supervision has shown as an opportunity to alleviate the bottleneck of manual labeling, since from supervision we can programmatically synthesize the training of labels from multiple sources generated by potentially noisy supervision. This dissertation presents experiments on one of the weak supervision application approaches. In particular, a brief literature review was carried out on the theoretical basis that supports the use of this approach and describes in general a learning and labeling workflow within the problem of named entity recognition from weak supervision. Finally, experiments were carried out to evaluate the gains of using this approach to assist in the labeling of bases within the context of Public Administration in Brazil, and thus, to inspire future research directions in the field.

19
  • LEANDRO DIAS CARNEIRO
  • Avaliando a influência de degradações em imagens nos modelos de aprendizado profundo utilizados em reconhecimento facial.

  • Orientador : FLAVIO DE BARROS VIDAL
  • MEMBROS DA BANCA :
  • FLAVIO DE BARROS VIDAL
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • CAMILO CHANG DOREA
  • HELIO PEDRINI
  • Data: 21/12/2023

  • Mostrar Resumo
  • Durante a Persecução Penal, os sistemas de Reconhecimento Facial têm sido cada vez mais utilizados, pois além da acurácia dos sistemas terem aumentado de forma considerável nos últimos anos, observa-se cada vez mais a presença de câmeras nas vias públicas, residências e estabelecimentos comerciais. Atualmente, a maioria dos sistemas comerciais apresenta como resultado uma métrica que representa a similaridade entre duas faces, ou simplesmente uma descrição qualitativa, deixando de lado outras análises a respeito da qualidade e da real utilidade do material utilizado para a comparação. Este trabalho tem como objetivo estimar o impacto que as degradações da imagem causam nos sistemas de reconhecimento facial baseados em aprendizado profundo, a fim de minimizar equívocos cometidos na análise do resultado. Para atingir este objetivo, serão realizadas duas etapas sequencias, sendo a primeira, a criação de uma base de dados e, a segunda, um modelo capaz de identificar a degradação (e a intensidade) presente na imagem. A base de dados será criada a partir de 3 algoritmos de detecção facial, 8 algoritmos de reconhecimento facial, 14 tipos de degradações com 6 níveis de intensidade em cada, e 4 bases de dados de faces, sendo calculados os escores para as métricas acurácia, precision e recall. Após a criação da base de dados, será desenvolvido um modelo de aprendizado profundo, capaz de identificar a degradação presente na imagem. Com esta identificação, será possível consultar os resultados da base de dados e estimar a queda de desempenho para as imagens novas. Para as bases de dados de faces analisadas, os modelos de reconhecimento facial tiveram um impacto mínimo de 17%, em média, e um impacto máximo de 43%, em média. Ainda, os modelos treinados na tarefa de detecção de degradação tiveram uma acurácia variando entre 71% e 94%, aproximadamente. Tanto os algoritmos quanto as bases de dados de faces são públicos. O objetivo final do projeto se dá pela identificação dos limites de qualidade necessários para um resultado considerado robusto por parte dos sistemas de reconhecimento facial. Ainda, a criação de um modelo capaz de estimar, com razoável acurácia, o tipo de degradação presente em uma imagem.


  • Mostrar Abstract
  • During criminal prosecution, facial recognition systems have been increasingly used, as in addition to the accuracy of the systems increasing considerably in recent years, cameras are growing on public roads, homes, and commercial establishments. Currently, most commercial systems present, as a result, a metric that represents the similarity between two faces or simply a qualitative description, leaving aside other analyses regarding the quality and actual usefulness of the material used for comparison. This work aims to estimate the impact of image degradations on facial recognition systems based on deep learning to minimize mistakes made when analyzing the result. To achieve this objective, two sequential steps will be carried out: the creation of a database and, the second, a model capable of identifying the degradation (and intensity) present in the image. The database will be created from 3 facial detection algorithms, eight facial recognition algorithms, 14 types of degradations with six intensity levels in each, and four face databases, with scores calculated for the accuracy metrics, precision, and recall. After creating the database, a deep learning model will be developed, capable of identifying the degradation present in the image. With this identification, it will be possible to consult the database results and estimate the drop in performance for new images. For the face databases analyzed, facial recognition models had a minimum impact of 17% on average and a maximum impact of 43% on average. Furthermore, the models trained in the degradation detection task had approximately 71% and 94% accuracy. Both the algorithms and the face databases are public. The project's final objective is to identify the quality limits necessary for a result considered robust by facial recognition systems. Furthermore, it creates a model capable of estimating, with reasonable accuracy, the type of degradation present in an image.

Teses
1
  • Lucas Maciel Vieira
  • Exploring relevant features of colorectal cancer from clinical and biological data: a bioinformatics approach

  • Orientador : MARIA EMILIA MACHADO TELLES WALTER
  • MEMBROS DA BANCA :
  • MARIA EMILIA MACHADO TELLES WALTER
  • CELIA GHEDINI RALHA
  • ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
  • JOÃO CARLOS SETUBAL
  • PETER FLORIAN STADLER
  • Data: 28/02/2023

  • Mostrar Resumo
  • O câncer colorretal (CRC) é um dos tipos de câncer mais comuns e letais em todo o mundo, sendo o segundo câncer mais comum no Brasil [1]. O CRC é um câncer heterogêneo, que se instala na parte inferior do intestino grosso e pode ser classificado de acordo com seu campo anatômico, como câncer de cólon, de reto ou na junção retossigmoide. O tipo mais frequente de CRC é o adenocarcinoma, que corresponde a 90% dos casos. A maioria das mortes causadas por CRC acontece quando esse entra em estado de metástase. No entanto, se detectado em seus estágios iniciais, a sobrevida do paciente com CRC pode melhorar consideravelmente. Esta doença pode ser influenciada por diversos aspectos ambientais, tais como:hábitos alimentares, idade e peso. Normalmente, o tratamento recomendado para pacientes com CRC é a cirurgia para sua remoção e, depois, o uso de quimioterapia, porém o tratamento pode diferir de acordo com seu campo anatômico. O diagnóstico do CRC em um campo anatômico incorreto pode levar o médico a prescrever um tratamento não recomendado ao paciente, o que pode afetar a sua taxa de mortalidade. Para auxiliar o prognóstico, prevenção e tratamento de CRC, é fundamental entender os mecanismos moleculares e os indicadores clínicos que afetam o desenvolvimento do CRC.

    Quanto aos aspectos biológicos do CRC, podemos descrever o impacto dos RNAs codificadores e não-codificadores nos mecanismos subjacentes à doença. Em específico, podemos destacar três moléculas: RNAs longos não codificadores (em inglês, long non-coding RNAs - lncRNAs), micro RNAs (miRNAs) e RNAs mensageiros (em inglês,messenger RNAs - mRNAs). Nos eucariotos, os mRNAs maduros são formados a partir do pré-mRNA que, por sua vez, é produzido a partir do processo de transcrição passar por um processo conhecido como excisão (em inglês, splicing), que remove algumas regiões (íntrons) do pré-mRNA e liga outras regiões (exons), formando assim o mRNA maduro. O processo de splicing possibilita gerar mais de uma proteína a partir de um único gene, em um processo conhecido como excisão alternativa (em inglês, alternative splicing). Por sua vez, as proteínas coordenam quase todos os processos vitais no organismo, sendo utilizadas em reações metabólicas e afetando diversos processos biológicos, como o desenvolvimento de doenças.

    Os miRNAs desempenham um papel essencial na expressão gênica, mais especificamente, ligando-se aos mRNAs e iniciando os processos de inibição ou degradação de seu alvo. Por sua vez, os lncRNAs não estão diretamente presentes neste processo de regulação da expressão de mRNA, mas desempenham papéis essenciais no organismo, como a alteração das funções de outras moléculas e, assim, afetam a expressão de proteínas indiretamente, o que pode contribuir para o surgimento e supressão de doenças. Considerando o papel específico de cada uma das moléculas descritas no desenvolvimento de doenças, estudos recentes destacaram a importância de um mecanismo conhecido como redes de RNAs endógenos concorrentes (em inglês, competing endogenous RNAs - ceRNAs), nos quais os lncRNAs, os miRNAs e osmRNAs interagem entre si. Nesse mecanismo, osmiRNAs, que se ligam aos mRNAs pelos binding sites, podem também se ligar aos ceRNAs, assim, regulando indiretamente a expressão dosmRNAs. A identificação de redes ceRNA relacionadas ao surgimento do CRC e seus mecanismos subjacentes podem auxiliar os médicos a entender melhor a doença e realizar um melhor prognóstico do paciente. Na literatura, podemos encontrar alguns estudos que usam abordagens baseadas em bioinformática para criar redes ceRNAs e auxiliar a identificação de biomarcadores para o câncer de cólon, reto e o câncer colorretal em geral. 

    Embora alguns estudos tenham foco na construção de redesceRNA, até onde sabemos, nosso estudo foi o primeiro a estabelecer redes ceRNAs específicas para: (i) cólon; (ii) reto; e (iii) junção retossigmóide, além de relacioná-los com mecanismos biológicos específicos, a fim de esclarecer as diferenças e fatores comuns entre essas diferentes localizações anatômicas.

    Por outro lado, alguns estudos sugerem o uso de métodos de aprendizagem de máquina e também o uso de características clínicas para predizer marcadores que podem ser usados para prognóstico de pacientes com CRC [9, 10, 11]. Especificamente, Gründner et al. [9] sugeriram um método que combina características biológicas e clínicas para predizer marcadores de prognóstico de pacientes com CRC na África do Sul. Esses estudos descreveram bons resultados obtidos a partir de modelos de predição. Tanto quanto saibamos, nosso estudo foi o primeiro que usou dados abertos e métodos de aprendizagem de máquina para predizer a reincidência de CRC e a sobrevivência do paciente usando marcadores biológicos extraídos de redesceRNAsde câncer de cólon, de reto e na junção retossigmoide, combinados com características clínicas.

    Nesta tese, na primeira etapa, propusemos um pipeline utilizando dados de livre acesso de pacientes com CRC, extraídos do banco de dados The Cancer Genome Atlas (TCGA), para construir redes ceRNAs específicas para o CRC e marcadores biológicos que afetam o prognóstico do paciente. Nosso objetivo foi o de realizar uma análise para identificar moléculas que possam ser usadas como marcadores biológicos para os três sítios anatômicos do CRC, cólon, reto e junção retossigmoide. Para construir tais redes e propor os marcadores biológicos, a expressão de RNA e os dados clínicos dos pacientes com CRC foram coletados. Os perfis de expressão de RNA foram produzidos por meio de ferramentas de análise que utilizam técnicas de bioinformática. Em seguida, encontramos redes ceRNA específicas para cada campo anatômico, para as quais, como dados de saída, obtivemos as redes ceRNA e as moléculas nelas presentes. Após essa etapa, foi realizada uma análise funcional, onde identificamos potenciais vias metabólicas relacionadas ao surgimento de câncer, as quais têm participação das moléculas obtidas na etapa anterior. Finalmente, uma análise de sobrevida global para identificar o impacto dessas moléculas no prognóstico do paciente foi realizada, resultando em uma lista de potenciais marcadores biológicos.

    Nessa etapa, ficaram evidenciados diversos potenciais biomarcadores que afetam o prognóstico do paciente em câncer de cólon, de reto e na junção retossigmoide. Além disso, redes ceRNA específicas para cada campo anatômico foram construídas, e foram identificadas diferentes vias biológicas que destacam diferenças no comportamento do CRC nos diferentes campos anatômicos, reforçando assim, a importância de identificar
    corretamente o campo anatômico em que o tumor ocorre. Como resultados, geramos um grupo de potenciais biomarcadores biológicos que afetam o prognóstico do CRC, em particular, podemos destacar: hsa-miR-1271-5p,NRG1, hsa-miR-130a-3p,SNHG16 e hsa-miR-495-3p para câncer de cólon; E2F8para câncer retal; e DMD e  hsa-miR-130b-3p para câncer na junção retossigmoide.

    Com a lista de potenciais marcadores biológicos que podem afetar no prognóstico de CRC, prosseguimos para a segunda etapa desta tese, em que propusemos um pipeline para prever a reinicindiva do CRC e a sobrevida dos pacientes, utilizando métodos de aprendizagem de máquina supervisionados. Fatores clínicos, como idade e peso, assim como fatores biológicos, podem afetar o prognóstico e o surgimento do CRC. Para melhor entender os mecanismos do CRC e identificar o impacto, tanto dos fatores clínicos, quanto dos fatores biológicos em seu prognóstico, usamos as características clínicas do paciente combinadas com os marcadores biológicos encontrados no passo anterior, como características biológicas, para treinar nossos modelos. Para alcançar um maior desempenho na predição e na possibilidade de interpretação dos resultados propostos, avaliamos e comparamos os seguintes algoritmos de aprendizagem de máquina: Random Forest - RF, Logistic Regression - LR, Support Vector Machine - SVM, K-Nearest Neighbors - KNN, Decision Tree - DT e Adaptative Boosting - AB. Para encontrar a importância de cada característica durante a construção dos modelos de predição, primeiro foi realizada uma análise de seleção de características, para filtrar e classificar quais dessas características de fato tinham impacto no modelo de predição construído. Com essas características biológicas e clínicas relevantes selecionadas, construímos os modelos de aprendizagem de máquina e avaliamos seu desempenho. Finalmente, como resultado, geramos modelos de aprendizagem de máquina para prever a reincidência do CRC e a sobrevivência do paciente, e uma lista de potenciais características biológicas e clínicas relevantes para o prognóstico do paciente.


    Nesta etapa, identificamos diversos potenciais marcadores biológicos e clínicos como importantes na reincindiva do CRC e na sobrevida do paciente. Quanto à importância das características, identificamos: SNHG16, hsa-miR-130b-3p, hsa-miR-495-3p e KCNQ1OT1 como características biológicas; e idade, etnia, estágio patológico, quimioterapia, altura e peso, contagem positiva de linfonodos e contagem de linfonodos como características clínicas. Finalmente, usando LR e RF, alcançamos uma precisão de 90% e 82% para predição da sobrevivência do paciente e da reincidiva do CRC, respectivamente. Além disso, o uso dos seis algoritmos de apredizagem de máquina propostos mostrou um bom desempenho geral, em específico, o RF apresentou bons resultados, o que também foi destacado em outros estudos [9, 10, 11].

    Por fim, a pesquisa desenvolvida nesta tese mostrou que o uso de técnicas de bioinformática em conjunto com o uso de algoritmos de aprendizagem de máquina pode melhorar a interpretação dos mecanismos presentes no CRC. No entanto, devemos destacar alguns fatores limitantes com os quais nos deparamos, como a quantidade de dados disponíveis para pacientes com câncer de junção rectosigmoide e a especificidade regional dos dados clínicos dos pacientes, visto que o banco de dados utilizado continha informações principalmente de pacientes dos Estados Unidos. Perspectivas de uso dos métodos desenvolvidos nesta tese são, primeiro, os pipelines propostos poderiam fornecer aos médicos um entendimento melhor dos mecanismos subjacentes ao CRC em seus diferentes campos anatômicos. Além disso, nossos modelos poderiam ser usados para auxiliar na predição de prognóstico do paciente. Por fim, executar esses pipelines com dados de pacientes brasileiros poderia ajudar os médicos a entender melhor as características específicas no surgimento do CRC e prognóstico dos pacientes que vivem nas diferentes regiões do Brasil.


  • Mostrar Abstract
  • Colorectal cancer (CRC) is one of the most frequent and lethal types of cancer around the world, being the second most frequent cancer in Brazil [1]. CRC is a heterogenous cancer that settles in the lower part of the large bowel and can be classified according to its anatomical site as:colon, rectum, and rectosigmoid junction cancer. The most common type of CRC is the adenocarcinoma, which accounts for 90% of the cases. Most of CRC deaths are related to its metastases, and if early detected, it improves considerably the patient survival chances. This disease can be impacted by many environmental aspects such as: eating habits, age, and weight. Its treatment can also differ according to its anatomical site and its recommended treatment, usually, first surgery and then chemotherapy. An inaccurate identification of the CRC anatomical site can lead to under or overtreatment, which can impact the patient’s likelihood of mortality. In order to help CRC prognosis, prevention, and treatment, it is crucial to understand the molecular mechanisms and external factors that affect CRC development and progression. 

    Regarding the biological aspects of CRC, we can describe the impact of coding and non-coding RNAs on the disease’s underlying mechanisms. In specific, we can highlight three molecules: long non-coding RNAs (lncRNAs), micro RNAs (miRNAs), and messenger RNAs (mRNAs). In eukaryotes, the mature mRNAs are formed after the pre-mRNA generated from the transcription undergoes a process known as splicing, which removes some regions (introns) of the pre-mRNA, while binding others (exons), thus forming the mature mRNA. The splicing process can generate more than one protein from a single gene in a process known as alternative splicing. The generated proteins then are used to regulate the organism’s functions by being used in metabolic reactions and affecting many biological processes, such as disease development. 

    The miRNAs play an essential role in gene expression, more specifically, by binding to mRNAs and then starting the processes of inhibition or degradation of their target. On the other hand, the lncRNAs are not directly portrayed in this mRNA expression regulation process but play essential roles, such as altering other molecules’ functions and therefore affecting protein expression affecting disease development and suppression. Given the specific role of each described molecule in disease development, recent studies also highlighted the importance of a mechanism known as competing endogenous RNAs (ceRNAs) networks, in which lncRNAs, miRNAs, and mRNAs interact among themselves. In this mechanism, the miRNAs, in addition to their capability of binding to

    the mRNAs, can also bind to the ceRNAs, which then, act as modulators of miRNAs, therefore, indirectly regulating the mRNA expression. The identification of ceRNA networks related to CRC development and its underlying mechanisms can help doctors to understand better the disease and better identify the patient’s prognosis. In literature, we can find some studies that use bioinformatic approaches to analyze and create ceRNA networks and to indicate potential prognosis biomarkers for colon, rectal, and colorectal cancer in general [2, 3, 4, 5, 6, 7, 8].

    Although some studies were done with the ceRNAs networks constructions in mind, to the best of our  knowledge, our study was the first to establish specific ceRNA networks for: (i) colon; (ii) rectum; and (iii) rectosigmoid junction, and to relate them with specific biological mechanisms in order to clarify the differences and common factors between these sites.

    On the other hand, some studies suggest the use of machine learning methods using clinical features to predict CRC patient prognosis [9, 10, 11]. In specific, Gründner et al. [9] explored a method that combined biological and clinical features to predict prognosis aspects for CRC patients from South Africa. These studies showed promising results in predicting CRC patient’s prognosis, but to the best of our knowledge, our study was the
    first one that used open data and machine learning to predict CRC recurrence and patient survival by using biological markers extracted from the colon, rectal and rectosigmoid cancer ceRNA networks combined with clinical features.

    In this thesis, as the first step, we propose a pipeline by using open-access data from patients with CRC extracted from The Cancer Genome Atlas (TCGA) to construct CRC-specific ceRNA networks and potential biological markers that affect patient prognosis. We aim to perform an analysis to identify molecules that can be used as biological markers for the three CRC anatomical sites:colon, rectum, and rectosigmoid junction. To 
    construct these networks and propose the biological markers, RNA raw expression and clinical data from the CRC patients were collected.The RNA expression profiles were assessed by the use of bioinformatic analysis tools, and a ceRNA network was constructed for each CRC anatomical site, where as output we got the ceRNA networks and the molecules present on them. After, a functional enrichment analysis was performed, where we assessed the potential biological pathways activated by the molecules obtained in the previous step. Finally, an overall survival analysis to identify the impact of these molecules on patient prognosis was performed, giving as output a list of potential biological markers. 

    As an overall result of the first pipeline of this thesis, several potential prognostic markers for colon, rectum, and rectosigmoid junction cancer were found.Also, specific ceRNA networks for each anatomical site were constructed, and we identified different biological pathways that highlight differences in CRC behavior at the different anatomical sites, thus reinforcing the importance of correctly identifying the tumor site. As output, a group of potential biological markers involved in CRC prognosis was generated, in specific, we can highlight the site-specific prognosis biomarkers: hsa-miR-1271-5p,NRG1, hsa-miR-130a-3p,SNHG16, and hsa-miR-495-3p in the colon;E2F8in the rectum; and DMDand hsa-miR-130b-3p in the rectosigmoid junction.

    With the list of potential biological markers related to CRC prognosis, then we proceeded to the second part of this thesis, the proposal of a pipeline to predict CRC recurrence and patient survival using supervised machine learning (ML) methods. Clinical factors such as age and weight, as well as biological factors, can affect CRC progression and prognosis. To better understand the mechanisms of CRC and to identify the impact of both clinical and biological factors in its prognosis, we used patient clinical features combined with the previously found biological markers as biological features, to train our ML models.In order to achieve higher predictive performance and interpretability of the proposed findings, we evaluated and compared the following ML algorithms: Random Forest (RF), Logistic Regression (LR), Support Vector Machine (SVM), K-Nearest
    Neighbors (KNN), Decision Tree (DT) e Adaptative Boosting (AB). To establish the importance of each feature while building the models to predict CRC recurrence and patient survival, first, a feature extraction analysis was performed, to filter and rank which of these features in fact have an impact on the constructed prediction model. With the selected relevant biological and clinical features in hand, we then constructed the ML models and evaluated their performance. Finally, as output, we generated ML models to predict CRC recurrence and patient survival and a list of potential biological and clinical features relevant to patient prognosis.

    Regarding the overall result from the second pipeline, several potential biological and clinical markers were pointed out as important in CRC recurrence and patient survival. For feature importance, we pointed out: SNHG16, hsa-miR-130b-3p, hsa-miR-495-3p, and KCNQ1OT1 as biological features; and age, ethnicity, pathological stage, chemotherapy, height and weight, positive lymph node count and lymph node count as clinical features. Finally, by using LR and RF we achieved the best accuracy of 90% and 82% for predicting
    patient survival and CRC recurrence, respectively. Also, the use of the six proposed ML algorithms showed an overall good performance, in specific, LR and RF displayed good overall results, which was also highlighted in other studies [9, 10, 11].

    This study strongly suggests that the use of bioinformatic approaches should be concurrently used with ML algorithms to enhance the interpretation of CRC mechanisms and patient prognosis. However, we should highlight some limiting factors such as: the amount of available data, as the number of available patients for certain anatomical sites was low; and that the data mainly consisted of patients from the USA. Following the proposed pipelines, doctors can better understand the underlying mechanisms of CRC in its anatomical sites, and also use our model to help predict patient prognosis. Finally, running these pipelines in Brazilian patient data could lead to an increase in CRC data interpretation, especially in a circumstance where there is diversity and inequality in the country’s demographic landscape, which can affect CRC prognosis.

2
  • Willian de Oliveira Barreiros Júnior
  • Efficient Execution of Microscopy Image Analysis on Distributed Memory Hybrid Machines

  • Orientador : GEORGE LUIZ MEDEIROS TEODORO
  • MEMBROS DA BANCA :
  • GEORGE LUIZ MEDEIROS TEODORO
  • RICARDO PEZZUOL JACOBI
  • ALFREDO GOLDMAN VEL LEJBMAN
  • CRISTIANA BARBOSA BENTES
  • RENATO ANTÔNIO CELSO FERREIRA
  • Data: 23/03/2023

  • Mostrar Resumo
  • A análise de imagens de whole slide tissue image (WSIs) é uma tarefa computacionalmente cara, impactando negativamente no uso de dados de patologia em imagens em larga es- cala para pesquisa. Diversas soluções paralelas para otimizar tais aplicações já foram propostas, mirando no uso de dispositivos e ambientes, como CPUs, GPUs e/ou sistemas distribuídos. Porém, a execução eficiente de de código paralelo em máquinas híbridas e/ou distribuídas permanece um problema em aberto para histopatologia digital. Desen- volvedores de aplicações podem precisar implementar múltiplas versões de código para diferentes dispositivos de hardware. Desenvolvedores também precisam lidar com os de- safios de distribuição eficiente de carga para nós computacionais de máquinas de memória distribuída, assim como para os dispositivos de execução de cada nó. Essa tarefa pode ser particularmente difícil para analises de imagens de alta resolução com custo computacional dependente de conteúdo. Esta tese tem como objetivo propor uma solução para a simpli- ficação do desenvolvimento de aplicações de análise de WSI, assegurando o uso eficiente de recursos distribuídos híbridos (CPU-GPU). Para esse fim foi proposto um modelo de execução de alto nível de abstração, em conjunto com um método de particionamento au- tomático de carga. A fim de validar os métodos e algoritmos propostos, uma linguagem de processamento de imagem de alto nível de abstração (Halide) foi utilizada como solução de paralelismo local (CPU/GPU), junto com o Region Templates (RT), um sistema de gestão de coordenação de dados e tarefas entre nós distribuídos. Também foi desenvolvida uma nova estratégia cost-aware de particionamento de dados (CADP) que considera a ir- regularidade de custo de tarefas a fim de minimizar o desbalanceamento de carga. Para tal, dois algoritmos de particionamento foram propostos, o Expected Cost Bisection e o Background Removal Bisection. Resultados experimentais mostram melhorias significa- tivas na performance de execução com recursos híbridos CPU-GPU, comparada com o uso de recursos homogêneos (CPU ou GPU apenas). Os algorithmos de particionamento foram comparados com uma abordagem baseline hierarquica usando KD-Trees (KDT), em ambientes multi-GPU, multi-GPU híbrido e distribuído de larga escala. Os resultados mostraram ganhos de até 2.72× para o ECB e de 4.52× para o BRB, ambos em com- paração ao KDT. Em adição ao modelo simplificado de desenvolvimento de workflows por experts de domínio, a performance vista em ambos ambientes híbridos e de larga escala demonstra a eficácia do sistema proposto para uso em estudos WSI de larga escala. Am- bas melhorias na performance dos algoritmos do CADP como no modelo de estimação de custo de execução são esperadas como trabalhos futuros para o sistema aqui proposto.


  • Mostrar Abstract
  • The analysis of high resolution whole slide tissue images (WSIs) is a computationally expensive task, which cost adversely impacts large scale usage of pathology imaging data in research. Parallel solutions to optimize such applications have been proposed target- ing multiple devices and environments, such as CPUs, GPUs, hybrid compute nodes and distributed systems. However, the generalization of efficiently executing parallel code on hybrid and/or distributed machines remains an open challenge for digital histopathol- ogy. An application developer may have to implement multiple versions of data pro- cessing codes targeted for different compute devices. The developer also has to tackle the challenges of efficiently distributing computational load among the nodes of a dis- tributed memory machine and among computing devices within a node. This can be particularly difficult for analysis of high-resolution images with content-dependent com- puting costs. This thesis aims to provide a solution for simplifying the development of WSI analysis workflows while also enabling efficient use of distributed and hybrid (CPU- GPU) resources. For this end, a high-level execution model, coupled with an automatic workload partitioning method was proposed. In order to validate the proposed meth- ods and algorithms, a high-level image processing language (Halide) was used as a local resource (CPU/GPU) parallel solution, together with Region Templates (RT), a system for managing data/tasks coordination among distributed nodes. A novel cost-aware data partitioning strategy that considers the workload irregularity to minimize load imbalance was also developed. For it, two partitioning algorithm were proposed, the Expected Cost Bisection (ECB) and the Background Removal Bisection (BRB). Experimental results show significant performance improvements on hybrid CPU-GPU machines, as compared with using a single compute device (CPU or GPU), as well as with multi-GPU systems. The partitioning algorithms were compared with a baseline hierarchical KD-Tree (KDT) approach, on multi-GPU-only, hybrid CPU-GPU and large-scale distributed CPU nodes environments. Results show speedups of up to 2.72× for ECB and 4.52× for BRB, both compared to KDT. In addition to the simpler development model for domain experts, the attained performance for both hybrid and large-scale distributed computing environ- ments demonstrates the efficacy of the proposed system for large-scale WSI studies. Both improvements on the CADP algorithms performance and the accuracy of the execution cost estimation model are expected as future works for the proposed system.

3
  • Liriam Michi Enamoto
  • GeMGF - Generic Multimodal Gradient-Based Meta Framework

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • GERALDO PEREIRA ROCHA FILHO
  • LUIS PAULO FAINA GARCIA
  • JO UEYAMA
  • PAULO CESAR GUERREIRO DA COSTA
  • Data: 13/04/2023

  • Mostrar Resumo
  • O surgimento do Transformer, um modelo pré-treinado utilizando dados em larga escala, e as suas recentes novas versões têm revolucionado pesquisas de Machine Learning em linguagem de processamento natural e visão computacional. Os excelentes resultados obtidos pelos modelos baseados em Transformer dependem de dados rotulados de alta- qualidade de um domínio específico. No entando, devido à diversidade de situações em que esses modelos são utilizados, é desafiador criar modelos que aprendam a partir de um conjunto limitado de dados. O modelo pode apresentar falta de generalização, vieses de linguagem e falta de imparcialidade causados pelos modelos pré-trainados acarretando em resultados inesperados em aplicações do mundo real. Este problema não resolvido nos leva à pesquisa sobre Multimodal Few-Shot Learning.

    Nesta tese, propomos o Generic Multimodal Gradient-Based Meta Framework (GeMGF). Para compensar a falta de dados, utilizamos dados multimodais em que informações su- plementares e complementares de uma modalidade podem auxiliar na representação dos dados. Os dados multimodais são extraídos utilizando modelos de deep leaning e en- tão representados em um espaço vetorial unificado. O framework utiliza o Prototypical Network e o Relation Network para o aprendizado com poucos dados. O Reptile, um meta- aprendizado basado em otimização, auxilia a evitar a degradação do modelo com dados nunca vistos. Adicionalmente ao framework multimodal, propomos a versão unimodal para avaliar a sua flexibilidade e adaptabilidade em diferentes cenários.

    O framework foi validado por meio de dez conjuntos de dados de diversas áreas: textos curtos do Twitter, textos longos da área jurídica, textos com caracteres alfabéticos (inglês e português) e não-alfabéticos (japonês), imagens da área médica e dados multimodais. O framework multimodal superou em 1,43% o modelo estado-da-arte de Munjal et al. [1] com o dataset CUB-200-2011, e superou em 1,93% o modelo de Pahde et al. [2] com o dataset Oxford-102. O resultado do framework multimodal foi 34,68% superior ao frame- work unimodal para imagem com CUB-200-2011, e 13,96% superior com Oxford-102. Os resultados sugerem que a combinação de dados textuais e imagens podem auxiliar no aprendizado e na melhoria da performance do framework como um todo. GeMGF multi- modal é um framework simples e compacto que utiliza somente 14 milhões de parâmetros, uma quantidade 99,8% menor que o Multimodal Transformer. O framework unimodal para texto alcançou resultados excelentes com dados textuais em japonês, superando o modelo Transformer BERT em 58,30% com 90,90% menos parâmetros. Os resultados sugerem que o framework obteve melhor performance com uma redução significativa no consumo de recurso computational.

    As principais contribuições desta pesquisa são: (i) um novo framework FSL multi- modal — GeMGF — que reduz a degradação do modelo quando trainado com poucos dados; (ii) GeMGF é treinado sem utilizar o conhecimento externo evitando vieses de lin- guagem e a falta de imparcialidade; (iii) GeMGF possui extratores de dados multimodais independentes e flexíveis que podem contribuir para aumentar a sua aplicabilidade; e (iv) o framework unimodal para texto pode ser adaptado para idiomas alfabéticos e não- alfabéticos com ótimos resultados.


  • Mostrar Abstract
  • The emergence of Transformer — a model pre-trained over a large-scale dataset — and the recent new versions have revolutionized research in Machine Learning, especially in Natural Language Processing (NLP) and Computer Vision. The excellent results of Tranformer-based models depend on labeled and high-quality domain specific data. How- ever, due to the diversity of contexts in which these models are used, it is challenging to create models that learn from limited data. The model may suffer from a lack of gener- alization, language bias, and fairness issues caused by large pre-trained models, resulting in unexpected outcomes in real-world applications. This open problem leads to research in multimodal Few-Shot Learning (FSL).

    In this thesis, we propose the Generic Multimodal Gradient-Based Meta Framework (GeMGF). To compensate for the scarcity of data, we use multimodal data in which supplementary and complementary information of one modality can help the data repre- sentation. The multimodal data are extracted using deep learning models and represented in a unified vector space. The framework uses the Prototypical Network and Relation Net- work in the FSL. The Reptile — an optimization-based meta-learner — helps the model avoid model degradation with unseen data. In addition to the multimodal framework, we propose the unimodal version to evaluate the flexibility and adaptability of the framework in different scenarios.

    The framework was evaluated using ten datasets from various domains and charac- teristics, including short texts from Twitter, legal domain long text, text with alphabetic (English and Portuguese) and non-alphabetic (Japanese) languages, medical domain im- ages, and multimodal benchmark datasets. Our multimodal framework was evaluated using CUB-200-2011 and Oxford-102 datasets, outperforming the state-of-the-art model of Munjal et al. [1] by 1.43% with CUB-200-2011 and Pahde et al. [2] by 1.93% with Oxford-102. The result of the multimodal framework with CUB-200-2011 was 34.68% higher than the unimodal framework for image and 13.96% higher with Oxford-102. The results suggest that text and image data jointly helped the framework learn rich informa- tion and improve overall performance. The multimodal GeMGF is a simple and compact framework using only 14 million parameters, 99.8% less than the Multimodal Trans former. The unimodal framework for text achieved excellent results with the Japanese dataset, outperforming Transformer BERT by 58.30% with 90.90% fewer parameters. These results suggest that our framework achieved better performance with a significant computational cost reduction.

    The main contributions of our research are: (i) a novel multimodal FSL framework, GeMGF is developed to reduce the model degradation trained over a few data; (ii) GeMGF is trained without external knowledge avoiding language bias and fairness issues; (iii) GeMGF has independent and flexible feature extractors that enhance its applicability; and (iv) the unimodal framework for text can be adapted to process alphabetic and non- alphabetic languages with high performance.

4
  • Lucas Borges Monteiro
  • Detecção e Resolução de Conflitos em ATM utilizando modelagens de trajetórias 4D baseadas em Banco de Dados NoSQL e Algoritmos de Busca

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • GERALDO PEREIRA ROCHA FILHO
  • VINICIUS RUELA PEREIRA BORGES
  • CLAUDIO BARBIERI DA CUNHA
  • ZHAO LIANG
  • Data: 26/05/2023

  • Mostrar Resumo
  • O progresso da ciência e da tecnologia provocou um aumento na quantidade de dados produzidos em diversas áreas, inclusive no transporte aéreo. O correto tratamento desse grande volume de dados traz resultados importantes, pois pode tornar a tomada de decisão mais precisa. Nesse sentido, com foco no novo paradigma de Operações Baseadas em Trajetórias (TBO) do Gerenciamento de Tráfego Aéreo (ATM), este trabalho apresenta dois modelos de detecção e resolução de conflitos (CDR). O primeiro é baseado em banco de dados NoSQL e algoritmos de busca. O segundo, chamado de 4 DNavMCTS, aplica os conceitos de Monte Carlo Tree Search (MCTS) e Modelo de Espaço Vetorial (MEV) para modelagem baseada em banco de dados NoSQL. Considerando o big data do transporte aéreo, nos testes realizados, os dois modelos foram capazes de realizar o CDR sob o paradigma da inteligência artificial (AI) para encontrar e resolver potenciais conflitos entre aeronaves e melhorar a segurança de voo com previsões razoáveis.

    Os principais objetivos alcançados com a pesquisa foram: i) aumentar da segurança do ATM; ii) processar grandes quantidades de dados gerados pelo tráfego regional e global na navegação 4D; iii) lidar com incertezas de fatores humanos e ambientais, como clima e temperatura; e iv) gerenciar trajetória objetivando garantir cenários livres de conflitos, evitando inclusive potenciais conflitos ocasionados pelo próprio modelo.


  • Mostrar Abstract
  • The progress of science and technology has greatly increased the amount of data produced in various fields, including air transportation. Correctly handling these massive data will bring important results, because it can make decision-making more accurate. In this sense, focusing on the new paradigm of Trajectory-Based Operations (TBO) of Air Traffic Management (ATM), this work presents two models for conflict detection and resolution (CDR). The first one is based on NoSQL database and search algorithms. The second one is called 4 DNavMCTS, which also applies the concepts of Monte Carlo Tree Search (MCTS) and Vector Space Model (VSM) to modeling based on a NoSQL database. Considering the big data of air transport, in the tests carried out, the two models were able to perform the CDR under the paradigm of artificial intelligence (AI) to find and resolve potential conflicts between aircraft and improve flight safety with reasonable predictions.
    The main objectives achieved with the research were:  i) increased security for the ATM; ii) Processing a large amount of data generated by regional and global traffic in four-dimensional navigation; iii) Dealing with uncertainties of human and environmental factors such as climate and temperature; And iv) trajectory management to ensure a conflict-free scenarios even if the model itself occasionally interferes.

5
  • Thiago Mendonça Ferreira Ramos
  • Verificação das propriedades computacionais de um modelo funcional de primeira-ordem.

  • Orientador : MAURICIO AYALA RINCON
  • MEMBROS DA BANCA :
  • DOMINIQUE LARCHEY-WENDLING
  • LAURA TITOLO
  • MAURICIO AYALA RINCON
  • NATARAJAN SHANKAR
  • VANDER RAMOS ALVES
  • Data: 15/06/2023

  • Mostrar Resumo
  • Este trabalho descreve a mecanização de propriedades computacionais de um modelo funcional que tem sido aplicado para automatizar o raciocínio sobre a terminação de programas. A formalização foi desenvolvida no assistente de provas de lógica de ordem superior, chamado Prototype Verification System (PVS). O modelo de linguagem foi projetado para imitar o fragmento de primeira ordem de especificações funcionais e é chamado PVS0. Foram considerados dois modelos computacionais: o primeiro modelo especifica um programa funcional por meio de uma única função (modelo single-function PVS0, ou SF-PVS0), e o segundo modelo permite a especificação simultânea de múltiplas funções (modelo multiple-function} PVS0, ou MF-PVS0). A semântica operacional da recursão na especificação do modelo SF-PVS0 suporta a recursão sobre o programa completo.

    Por outro lado, em programas MF-PVS0, as chamadas funcionais são permitidas para todas as funções especificadas no programa. Este trabalho tem como objetivo certificar matematicamente a robustez dos modelos PVS0 como modelos computacionais universais. Para isso, propriedades cruciais e teoremas foram formalizados, incluindo Turing Completude, a indecidibilidade do Problema da Parada, o teorema da recursão, o teorema de Rice e o teorema do Ponto Fixo. Além disso, o trabalho discute avanços na indecidibilidade do Problema da Palavra e do Problema da Correspondência de Post.

    A indecidibilidade do Problema da Parada foi formalizada considerando a avaliação semântica de programas PVS0 que foram aplicados na verificação da terminação de especificações em PVS. A equivalência entre a avaliação funcional e predicativa de operadores foi fundamental para esse objetivo. Além disso, a composicionalidade de programas MF-PVS0, habilitada diretamente pela possibilidade de chamar diferentes funções, torna fácil a formalização da Turing Completude. Portanto, enriquecer o modelo foi uma decisão de design importante para simplificar a mecanização dessa propriedade e dos teoremas mencionados acima.


  • Mostrar Abstract
  • This work describes the mechanization of the computational properties of a functional-language model that has been applied to reasoning about the automation of program termination. The formalization was developed using the higher-order proof assistant Prototype Verification System (PVS). The language model was designed to mimic the first-order fragment of PVS functional specifications and is called PV0. Two different computational models are considered: the first model specifies functional programs through a unique function (single-function PVS0 model, or SF-PVS0), and the second model allows simultaneous specification of multiple functions (multiple-function PVS0 model, or MF-PVS0). The operational semantics of recursion in single-function PVS0 specification supports recursion over the whole program.

    In contrast, in multiple-function PVS0 programs,  functional calls are allowed to all functions specified in the program. This work aims to mathematically certify the robustness of the PVS0 models as universal computational models. For doing that, crucial properties and theorems were formalized, including Turing Completeness, the undecidability of the Halting Problem,  the Recursion Theorem, Rice's Theorem, and the Fixed Point Theorem. Furthermore,  the work discusses advances in the undecidability of the Word Problem and the Post Correspondence Problem.

    The undecidability of the Halting Problem was formalized considering properties of the semantic evaluation of PVS0 programs that were applied in verifying the termination of PVS specifications. The equivalence between predicative and functional evaluation operators was vital to this aim. Furthermore, the compositionality of multiple-function PVS0 programs, straightforwardly enabled by the possibility of calling different functions, makes it easy formalization of properties as Turing Completeness. Therefore, enriching the model was an important design decision to simplify the mechanization of this property and the theorems mentioned above.

6
  • AURELIO RIBEIRO COSTA
  • Adaptive Model to Community Detection in Dynamic Social Networks
  • Orientador : CELIA GHEDINI RALHA
  • MEMBROS DA BANCA :
  • CELIA GHEDINI RALHA
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • RICARDO PEZZUOL JACOBI
  • DANIEL RATTON FIGUEIREDO
  • FRANCISCO APARECEIDO RODRIGUES
  • Data: 16/06/2023

  • Mostrar Resumo
  • Um problema vital abordado na análise de rede é a identificação da estrutura de comunidade. No entanto, o uso atual de técnicas de análise de redes concentra-se em analisar estruturas de comunidades estáticas, o que gera uma lacuna em não considerar os aspectos dinâmicos. Algumas soluções para o problema de detecção de comunidades adaptadas à dinamicidade das redes apresentam limitações no desempenho, e outras não se enquadram em tais contextos. Essa situação é agravada quando se considera a demanda por analisar redes sociais em constante crescimento. Esta pesquisa visa preencher a lacuna dos aspectos dinâmicos com foco na mudança de topologia da rede social ao longo do tempo, aplicando a metodologia de aprendizado por reforço profundo como uma solução alternativa para o problema de detecção de comunidades. Propomos um modelo adaptativo para maximizar a densidade de modularidade local de uma estrutura de comunidade. O modelo inclui uma arquitetura baseada em aprendizado por reforço com ator-crítico e rede neural em grafo para lidar com aspectos de mudança em redes sociais dinâmicas. Experimentos realizados usando a arquitetura proposta com conjuntos de dados sintéticos e de mundo real de redes sociais mostram precisão comparável às soluções do estado da arte. Embora os resultados indiquem que a arquitetura lida bem com redes sociais dinâmicas, uma investigação mais profunda faz-se necessário para melhorar o modelo no tocante ao desempenho computacional.


  • Mostrar Abstract
  • A vital problem tackled in network analysis is community structure identification. However, the current use of network analysis techniques concentrates on analyzing static community structures, which generates a gap in not considering the dynamic aspects. Some solutions for the community detection problem adapted to the dynamicity of the networks present limitations on the resulting performance, and others do not fit such contexts. This situation aggravates when considering the demand to analyze constantly growing social networks. This research aims to fulfill this gap by focusing on the topology change along a time frame and applying deep reinforcement learning methodology as an alternative solution to the problem of community detection on dynamic social networks. We propose an adaptive model to maximize the local modularity density of a community structure. Our model includes actor-critic reinforcement learning-based architecture with a graph neural network to cope with changing aspects of large social networks. Experiments conducted using the proposed architecture with synthetic and real-world dynamic social network datasets show accuracy comparable to the state-of-art solutions. Although the results indicate that the architecture copes well with dynamic real-world social networks, further investigation is necessary to improve the architecture with computational performance aspects.

7
  • Leonardo Henrique Moreira
  • Recovery Strategies for Multi-agent Planning in Dynamic Environments

  • Orientador : CELIA GHEDINI RALHA
  • MEMBROS DA BANCA :
  • ANTONÍN KOMENDA
  • CELIA GHEDINI RALHA
  • EDISON PIGNATON DE FREITAS
  • GENAINA NUNES RODRIGUES
  • LI WEIGANG
  • Data: 30/06/2023

  • Mostrar Resumo
  • Em resumo, o objetivo desta tese é apresentar e avaliar um modelo de MAP aplicável a ambientes dinâmicos que a combine a estratégia de replanejamento e de reparo em um modelo MAP. Paralelamente, cabe destacar algumas contribuições para a área de pesquisa em MAP. Em primeiro lugar, ressalta-se um método para comparar o desempenho das estratégias de recuperação de planos em diferentes cenários, considerando tanto o planejamento centralizado quanto o distribuído com níveis variados de acoplamento. Ademais, a revisão da literatura realizada nesta tese traz outra contribuição significativa ao fornecer uma visão abrangente da área de pesquisa do MAP. Ao examinar uma ampla gama de trabalhos acadêmicos, a revisão identificou autores e organizações que fizeram contribuições substanciais para o campo, bem como os documentos mais citados.


  • Mostrar Abstract
  • This thesis explores Multi-Agent Planning (MAP) and its application in dynamic environments. MAP combines artificial intelligence planning with multi-agent systems to coordinate intelligent agents achieving individual or group goals. Planning in dynamic environments introduces challenges in coordination and execution due to non-deterministic outcomes. Plan recovery strategies, like replanning and repairing, aim to handle failures and restore desired conditions. A comprehensive literature review highlighted key contributors and institutions in the MAP research offering insights into concepts, techniques,
    and open challenges. However, the combination of different recovery strategies for MAP models is a research challenge not yet accomplished in the present literature. In this thesis, we address this challenge by proposing an evaluation method for recovery strategies in dynamic environments, combining replanning and repairing. This approach considers planning complexity, coordination allied to execution issues, and agents attempting local repairs before seeking other agents’ assistance. The main objective and results aim to contribute to the MAP field by evaluating the combination of replanning and repairing in planning solution models for dynamic environments.

8
  • Leia Sousa de Sousa
  • Redes Ópticas Metropolitanas: Arquiteturas e Engenharia de Tráfego
  • Orientador : ANDRE COSTA DRUMMOND
  • MEMBROS DA BANCA :
  • ANDRE CASTELO BRANCO SOARES
  • ANDRE COSTA DRUMMOND
  • EDUARDO ADILIO PELINSON ALCHIERI
  • GUSTAVO BITTENCOURT FIGUEIREDO
  • JACIR LUIZ BORDIM
  • Data: 24/08/2023

  • Mostrar Resumo
  • Redes ópticas metropolitanas (do inglês Metropolitan Optical Networks – MONs) são redes de comunicação de alta velocidade que interconectam diferentes locais em uma área metropolitana. Diferentes tipos de aplicações são oferecidas aos clientes através das MONs, desde aplicações de computação em nuvem, cada vez mais próximas do usuários finais, até os recentes serviços de Internet das Coisas. Essas aplicações estão gerando demandas crescentes de clientes empresariais e privados por serviços de largura de banda escaláveis, flexíveis, transparentes, com velocidade de terabit e personalizados.
    As MONs utilizam tecnologia de fibra óptica para transmitir dados em altas velocidades e a partir de qualquer ponto da sua infraestrutura. Diferentemente das redes ópticas de núcleo, as MONs apresentam grande variedade de granularidade de serviços, com arquiteturas e perfis de tráfego heterogêneos e desbalanceada distribuição dos fluxos de tráfego ao longo dos seus nós. Devido a isso, as MONs devem ser tratadas de maneira diferente.
    Para os provedores de rede, é de grande importância determinar as regiões existentes, tais como as áreas residenciais e áreas de negócios, de modo que se possa analisar o comportamento do tráfego local, propondo intervenções na infraestrutura nos pontos críticos da rede.  Atualmente, as MONs estão passando por grandes transformações que incluem a adoção de uma variedade de taxas de transmissão, subdivisão em vários níveis hierárquicos e atribuição de novos papéis aos variados nós. Este trabalho apresenta um levantamento sobre as novas arquiteturas MONs propostas, tanto mono quanto multicamadas.
    Além disso, são discutidas soluções de engenharia de tráfego para MONs baseadas em Redes Ópticas Elástica (do inglês Elastic Optical Networks - EONs), denominadas MEONs, analisando soluções cientes da área que resultam em menor bloqueio de largura da banda (Bandwidth Blocking Ratio - BBR) nas redes. Além da métrica de BBR geral, este trabalho considera o BBR por área e BBR por cluster de área, que são métricas ainda não identificadas na literatura científica atual. As soluções propostas alcançam o dobro de melhorias em comparação com outras soluções cientes da literatura, em termos de bloqueio de largura de banda.

  • Mostrar Abstract
  • Metropolitan Optical Networks (MONs) are high-speed communication networks that interconnect different locations in a metropolitan area. Different types of applications are offered to customers through MONs, from cloud computing applications, increasingly closer to the end user, to the recent Internet of Things services. These applications are driving increasing demands from enterprise and private customers for scalable, flexible, transparent, terabit-speed, and personalized bandwidth services.
    MONs use fiber optic technology to transmit data at high speeds and from any point in your infrastructure. Unlike core optical networks, MONs have a wide variety of service granularity, with heterogeneous architectures and traffic profiles and an unbalanced distribution of traffic flows along their nodes. Because of this, MONs must be handled differently.
    For network providers, it is of great importance to determine the existing regions, such as residential areas and business areas, so that the behavior of local traffic can be analyzed, proposing interventions in the infrastructure at the critical points of the network. Currently, MONs are undergoing major transformations that include the adoption of a variety of transmission rates, subdivision into several hierarchical levels, and assignment of new roles to the various nodes. This work presents a survey of the proposed new MONs architectures, both single and multi-layered.
    In addition, traffic engineering solutions for MONs based in Elastic Optical Networks (EONs), called MEONs, are discussed, analyzing area-aware solutions that result in lower Bandwidth Blocking Rate (BBR) on networks. In addition to the general BBR metric, this work considers BBR by area and BBR by cluster, which are metrics not yet identified in the current scientific literature. The proposed solutions achieve twice the improvements compared to other aware solutions in the literature in terms of blocking bandwidth.
9
  • Lucas dos Santos Althoff
  • Impact of Alignment Edits on the User Experience of 360-degree Videos.

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • CELIA GHEDINI RALHA
  • RUDINEI GOULARTE
  • DEBORA CHRISTINA MUCHALUAT SAADE
  • Data: 20/12/2023

  • Mostrar Resumo
  • Experimentos subjetivos fornecem dados para construir soluções adequadas e são essenci-
    ais para o desenvolvimento e aprimoramento de sistemas e aplicativos multimídia. Partic-
    ularmente importante, a avaliação subjetiva da qualidade visual auxilia pesquisadores ao
    estabelecerem referências as soluções de compressão e transmissão de sinais. No entanto,
    o nível de confiabilidade de tais experimentos pode variar dependendo do tipo de mídia.
    Esta dissertação examina os fatores de qualidade para um formato específico utilizados
    em mídias imersivas, os vídeos 360. Em comparação aos vídeos convencionais, ao assistir
    vídeos 360o usuário possui maior controle do conteúdo. Assim, a qualidade sad visual
    convencional não é suficiente para descrever o estímulo, que por sua vez se estende ao
    conceito de qualidade da experiência (QoE). A otimização do QoE enfrenta dois grandes
    obstáculos: previsão imprecisa da janela de visualização e espectadores perdendo o enredo
    de uma história. As edições de alinhamento surgiram como um mecanismo promissor para
    evitar os dois problemas ao mesmo tempo. Essas “edições de redirecionamento” agem no
    conteúdo em tempo real, alinhando a janela de visualização do usuário com uma região
    de interesse no conteúdo do vídeo. Nesta dissertação, investigamos os efeitos das edições
    de alinhamento na QoE do usuário realizando dois experimentos subjetivos, onde intro-
    duzimos edições de alinhamento gradual nos vídeos, inspiradas em uma técnica de jogo de
    RV. Os resultados confirmaram que o alinhamento gradual proposto atinge um nível de
    conforto e presença semelhante ao das edições instantâneas. Além disso, todas as edições
    de alinhamento testadas reduziram a velocidade do cabeçote após a edição, confirmando
    a utilidade dessas edições para streaming de vídeo sob demanda. Além disso, observamos
    que as edições graduais propostas podem atingir uma redução na velocidade do cabeçote
    de 8% maior em comparação com as técnicas de alinhamento instantâneo


  • Mostrar Abstract
  • When watching 360videos, the user has higher content control interactivity, and , thus,
    the conventional visual quality is not enough to describe stimulus, that in turn extends to
    the concept of quality of experience (QoE). This dissertation examines quality factors of
    today‘s most popular immersive media format, the 360videos. Particularly important,
    the subjective assessment of quality of experience. Subjective experiments provide data
    to build adequate solutions and are essential to developing and improving multimedia
    systems and applications. The visual quality assessment support researchers to establish
    baselines for coding, and streaming applications.However, the reliability level of the
    measurement of quality in subjective experiments can vary depending on the type of me-
    dia. The optimization of QoE faces two major roadblocks: inaccurate viewport prediction
    and viewers missing the plot of a story.Alignment edits have emerged as a promising
    mechanism to avoid both issues at once. These “re-targeting edits” act on the content in
    real-time, aligning the user’s viewport with a region of interest in the video content. In
    this dissertation, we investigate the effects of alignment edits on user QoE by conducting
    two subjective experiments, where we introduce gradual alignment editions in the videos,
    inspired by a VR gaming technique.The results confirmed that the proposed gradual
    alignment achieves a level of comfort and presence similar to that of instant editions.
    Moreover, all alignment edits tested reduced the head speed after the edit, confirming
    the usefulness of these edits for streaming video on-demand. Furthermore, we observed
    that the proposed gradual editions can achieve a reduction in head speed of 8% greater
    compared to the instant alignment techniques.

2022
Dissertações
1
  • MARCOS PAULO CAYRES ROSA
  • Ajuste Dinâmico de Dificuldade pelo desempenho e perfil de jogador em jogo de plataforma

  • Orientador : RICARDO PEZZUOL JACOBI
  • MEMBROS DA BANCA :
  • RICARDO PEZZUOL JACOBI
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • TIAGO BARROS PONTES E SILVA
  • ESTEBAN WALTER GONZALEZ CLUA
  • Data: 29/07/2022

  • Mostrar Resumo
  • O Ajuste Dinâmico de Dificuldade (ADD) dos jogos pode desempenhar um papel impor- tante para aumentar o envolvimento e a diversão do jogador. A dificuldade de jogo pode ser adaptada de acordo com o desempenho do jogador, seu estado afetivo ou usando um modelo híbrido que combina as duas abordagens. Ademais, pode adaptar configurações ou componentes do jogo e utilizar métricas pré-estabelecidas ou aprendizado de máquina para análise do que será adaptado. Este trabalho investiga os distintos mecanismos de um sistema de ADD para um jogo de plataforma adaptar adequadamente seu nível de dificul- dade e manter o jogador em um estado de fluxo. Este trabalho contribui com a definição de um método que estima a dificuldade do jogo a partir de características específicas de componentes comuns ao gênero de plataforma. Também são revisadas métricas para medição do estado do fluxo e do perfil do jogador e propostas regras para criação de níveis ao testar modelos de ADD. O ajuste proposto varia o tamanho da plataforma e a altura do salto, comparando distintas abordagens a partir de sistemas do jogo e verificando a eficiência de cada uma em relação ao monitoramento e análise dos dados e ao controle da adaptação dos componentes. Um jogo de plataforma de código aberto foi adaptado para suportar os algoritmos de ADD e para execução de testes com grupos de amostra, nos quais os participantes respondiam a questionários e tiveram seus dados coletados para fins de investigação. Os resultados indicaram que a dificuldade de jogos de plataforma pode ser estimada pelos componentes dos níveis, incluindo correlação entre a dificuldade e os dados de desempenho dos jogadores. Além disso, perfis de jogadores foram previstos a partir de dados brutos da sessão do jogo e utilizados com métodos de aprendizado de máquina para definir a progressão de dificuldade. Por fim, os modelos de ADD foram capazes de ajustar a dificuldade do jogo aos jogadores, diminuindo a dispersão entre os dados de desempenho e mantendo o jogador em estado de fluxo, especialmente ao utilizar redes neurais diretas para predição da dificuldade experienciada e do perfil do jogador.


  • Mostrar Abstract
  • The Dynamic Difficulty Adjustment (DDA) of games can play an important role in in- creasing the player engagement and fun. Gameplay difficulty can be adapted according to the player’s performance, its affective state or by using a hybrid model that com- bines both approaches. In addition, you can adapt game settings or components and use pre-established metrics or machine learning to analyze what will be adapted. This work investigates the different mechanisms of an DDA system for a platform game to adequately adapt its difficulty level and keep the player in a state of flow. This work contributes with the definition of a method that estimates the game’s difficulty based on specific characteristics of components common to the platform genre. Metrics for measur- ing the flow state and player profile are also reviewed, and rules for creating levels when testing ADD models are proposed. The proposed adjustment varies the size of the plat- form and the height of the jump, comparing different approaches from the game systems and verifying the efficiency of each one in relation to the monitoring and analysis of the data and the control of the components adaptation. An open source platform game was adapted to support the ADD algorithms and to run tests with sample groups, in which participants answered questionnaires and had their data collected for research purposes. The results indicated that the difficulty of platform games can be estimated by the com- ponents of the levels, including correlation between the difficulty and player performance data. In addition, player profiles were predicted from raw game session data and used with machine learning methods to define difficulty progression. Finally, the DDA models were able to adjust the game difficulty to the players, decreasing the dispersion between the performance data and keeping the player in a state of flow, especially when using feedforward neural networks to predict the difficulty experienced and the player’s profile.

2
  • OSMAR LUIZ FERREIRA DE CARVALHO
  • Deep Learning & Remote Sensing: Pushing the Frontiers in Image Segmentation

  • Orientador : DIBIO LEANDRO BORGES
  • MEMBROS DA BANCA :
  • CELIA GHEDINI RALHA
  • DIBIO LEANDRO BORGES
  • ERALDO APARECIDO TRONDOLI MATRICARDI
  • YOSIO EDEMIR SHIMABUKURO
  • Data: 23/09/2022

  • Mostrar Resumo
  • Resumo
    A segmentação de imagens visa simplicar o entendimento de imagens digitais e métodos de
    aprendizado profundo usando redes neurais convolucionais permitem a exploração de diferentes
    tarefas (e.g., segmentação semântica, instância e panóptica). A segmentação semântica atribui
    uma classe a cada pixel em uma imagem, a segmentação de instância classica objetos a nível
    de pixel com um identicador exclusivo para cada alvo e a segmentação panóptica combina
    instâncias com diferentes planos de fundo. Os dados de sensoriamento remoto são muito ade-
    quados para desenvolver novos algoritmos. No entanto, algumas particularidades impedem que o
    sensoriamento remoto com imagens orbitais e aéreas cresça quando comparado às imagens tradi-
    cionais (e.g., fotos de celulares): (1) as imagens são muito extensas, (2) apresenta características
    diferentes (e.g., número de canais e formato de imagem), (3) um grande número de etapas de pré-
    processamento e pós-processamento (e.g., extração de quadros e classicação de cenas grandes) e (4) os softwares para rotulagem e treinamento de modelos não são compatíveis. Esta dissertação visa avançar nas três principais categorias de segmentação de imagens. Dentro do domínio de segmentação de instâncias, propusemos três experimentos.

    Primeiro, aprimoramos a abordagem
    de segmentação de instância baseada em caixa para classicar cenas grandes.Em segundo
    lugar, criamos um método sem caixas delimitadoras para alcançar resultados de segmentação
    de instâncias usando modelos de segmentação semântica em um cenário com objetos esparsos.
    Terceiro, aprimoramos o método anterior para cenas aglomeradas e desenvolvemos o primeiro
    estudo considerando aprendizado semissupervisionado usando sensoriamento remoto e dados
    GIS. Em seguida, no domínio da segmentação panóptica, apresentamos o primeiro conjunto de
    dados de segmentação panóptica de sensoriamento remoto e dispomos de uma metodologia para
    conversão de dados GIS no formato COCO. Como nosso primeiro estudo considerou imagens
    RGB, estendemos essa abordagem para dados multiespectrais. Porm, melhoramos o método
    box-free inicialmente projetado para segmentação de instâncias para a tarefa de segmentação
    panóptica.Esta dissertação analisou vários métodos de segmentação e tipos de imagens, e as
    soluções desenvolvidas permitem a exploração de novas tarefas , a simplicação da rotulagem
    de dados e uma forma simplicada de obter previsões de instância e panópticas usando modelos
    simples de segmentação semântica


  • Mostrar Abstract
  • Image segmentation aims to simplify the understanding of digital images. Deep learning-based
    methods using convolutional neural networks were game-changing, allowing the exploration of
    different tasks (e.g., semantic, instance, and panoptic segmentation).Semantic segmentation
    assigns a class to every pixel in an image, instance segmentation classifes objects at a pixel
    level with a unique identifer for each target, and panoptic segmentation combines instance-
    level predictions with different backgrounds.Remote sensing data largely benefts from those
    methods, being very suitable for developing new DL algorithms and creating solutions using
    top-view images.However, some peculiarities prevent remote sensing using orbital and aerial
    imagery from growing when compared to traditional ground-level images (e.g., camera photos):
    (1) The images are extensive, (2) it presents different characteristics (e.g., number of channels
    and image format), (3) a high number of pre-processes and post-processes steps (e.g., extracting
    patches and classifying large scenes), and (4) most open software for labeling and deep learn-
    ing applications are not friendly to remote sensing due to the aforementioned reasons.This
    dissertation aims to advance in all three main categories of image segmentation. Within the in-
    stance segmentation domain, we proposed three experiments. First, we enhanced the box-based
    instance segmentation approach for classifying large scenes, allowing practical pipelines to be
    implemented. Second, we created a bounding-box free method to reach instance segmentation
    results by using semantic segmentation models in a scenario with sparse objects.Third, we
    improved the previous method for crowded scenes and developed the first study considering
    semi-supervised learning using remote sensing and GIS data. Next, in the panoptic segmenta-
    tion domain, we presented the first remote sensing panoptic segmentation dataset containing
    fourteen classes and disposed of software and methodology for converting GIS data into the
    panoptic segmentation format. Since our first study considered RGB images, we extended this
    approach for multispectral data.Finally, we leveraged the box-free method initially designed
    for instance segmentation to the panoptic segmentation task. This dissertation analyzed various
    segmentation methods and types of images, and the developed solutions enable the exploration
    of new tasks (such as panoptic segmentation), the simplification of labeling data (using the pro-
    posed semi-supervised learning procedure), and a simplified way to obtain instance and panoptic
    predictions using simple semantic segmentation models.

3
  • JOAO PAULO COSTA DE ARAUJO
  • Enhancing Runtime Monitors of Cyber-Physical Systems using Negative Selection

  • Orientador : GENAINA NUNES RODRIGUES
  • MEMBROS DA BANCA :
  • GENAINA NUNES RODRIGUES
  • LUIS PAULO FAINA GARCIA
  • VANDER RAMOS ALVES
  • LARS GRUNSKE
  • Data: 14/11/2022

  • Mostrar Resumo
  • Os sistemas ciberfísicos são uma realidade definitiva na nossa vida quotidiana, especial- mente nos últimos anos. No entanto, a complexidade inerente a estes domínios suscita alguns desafios como por exemplo acontecimentos imprevistos, dificuldades em represen- tar os processos cibernéticos ou físicos, e o conhecimento incompleto dos contextos do ambiente. Tudo isso pode tornar os CPS pouco fiáveis em tempo de execução, causando efeitos desastrosos. Procurar inspiração em processos de outros campos é uma atividade muito comum na Informática. A natureza, especialmente a biologia, há muito que serve como uma fonte frutuosa de metodologias como as abordagens de inteligência artificial. O Algoritmo de Selecção Negativa, por exemplo, é uma técnica de base imunológica com múltiplas aplicações bem sucedidas em CPS, principalmente no campo do diagnóstico de falhas para a identificação de comportamentos anômalos. A explicabilidade do algoritmo pode trazer benefícios expressivos para a concepção e verificação de CPS, ajudando a compreender os padrões de violação de propriedade, e assim melhorar a especificação do sistema. Neste trabalho, é proposta uma metodologia que visa aumentar a fiabilidade de CPS. Isto é feito através de um diagnóstico sistemático das violações das propriedades do sis- tema baseado em dados gerados por um protótipo, realizado nas fases iniciais de desen- volvimento. Um algoritmo de inspiração imunológica chamado Seleção Negativa (NSA) serve como método de redundância analítica para isolar e identificar a causa da viola- ção de propriedade no sistema. É possível que, através do arrazoamento sobre as razões pelas quais as violações de propriedade acontecem, a especificação do sistema e a pró- pria propriedade possam ser refinadas, mecanismos tolerantes a falhas possam ser criados permitindo, assim, o desenvolvimento de aplicações mais seguras e melhores.


  • Mostrar Abstract
  • Cyber-physical systems are a definite reality in our day-to-day lives, especially in recent years. Nevertheless, the complexity inherent in these domains raises some challenges like unforeseen events, difficulties in depicting either the cyber or the physical processes, and the incomplete knowledge of the environmental contexts, for example, might make the CPS unreliable at runtime, which could have disastrous effects. Seeking inspiration in processes from other fields is a very common activity in Computer Science. Nature, especially biology, has long served as a fruitful source of methodologies like artificial intelligence approaches. The Negative Selection Algorithm, for example, is an immuno-based technique with multiple successful applications in the field of CPS, primarily in the field of fault diagnostics for the identification of anomalous behavior. The algorithm’s explainability may bring expressive benefits for the design and verification of CPS by helping understand the property violation patterns, and thus enhance the system specification. In this work, we propose a methodology that aims at increasing the reliability of CPSs. This is achieved by a systematical diagnosis of system property violations based on data generated by a prototype, performed in the early stages of development. An immuno- inspired algorithm called Negative Selection (NSA) serves as an analytical redundancy method to isolate and identify the cause of property violation in the system. We believe that, by reasoning about why the property violations happen, the system specification and the property themselves may be refined, fault-tolerant mechanisms may be added, and, thus, safer and better applications might be written.

4
  • DIEGO SANTOS DA SILVA
  • SCAN-NF: a Machine Learning System for Invoice Product Trasaction Classification Through Short-Text Processing.

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • GERALDO PEREIRA ROCHA FILHO
  • THIAGO DE PAULO FALEIROS
  • ANNE MAGALY DE PAULA CANUTO
  • Data: 08/12/2022

  • Mostrar Resumo
  • Nota Fiscal Eletrônica (NF-e) é um documento que reporta as transações de bens e serviços de forma eletrônica, tanto na transferência quanto no armazenamento. A utilização de notas fiscais eletrônicas é uma tendência emergente e apresenta uma valiosa fonte de informação para diversas áreas. No entanto, o processamento dessas notas é uma tarefa desafiadora. A informação reportada está geralmente incompleta ou apresenta erros. Antes que qual processamento significativo possa ser feito, é necessária identificar o produto representado em cada documento. A literatura disponível indica que são necessárias arquiteturas especializadas para lidar com este tipo de informação. Esta pesquisa modelo o problema de processamento de notas ficais como um problema de processamento de textos curtos para a correta identificação do produto de cada transação. Este trabalho apresenta tanto um framework contextual para o processamento de notas fiscais quanto uma arquitetura para um sistema de auxilio a auditores fiscais. Um caso de estudo uti- lizando dados reais de notas fiscais é apresentado. Modelos tradicionais baseados em frequência de termos foram comparados a modelos de classificação de sentenças baseado em redes convulsionais artificiais. Experimentos sugerem que embora o texto presente em notas fiscais seja breve e apresente erros e falhas de escrita, modelos simples baseados em frequência de termos apresentam bons resultados para a etiquetagem de código de produtos.


  • Mostrar Abstract
  • An electronic invoice (E-invoice) is a document that records the transactions of goods and services electronically, both in storage and exchanges. E-invoice is an emerging practice and presents a valuable source of information for many areas. Processing these invoices is often a challenging task. Information reported is often incomplete or presents mistakes. Before any meaningful processing of these invoices, it is necessary to identify the product represented in each document. The available literature indicates that specialized archi- tectures are necessary to deal with this type of information. This research frames invoice processing as a short-text processing problem to correctly identify the product of each transaction. This work provides both a contextual framework for invoice processing and the architecture for a system to aid tax auditors. A study case utilizing real-world invoice data is presented. We compare traditional term frequency models to sentence classifi- cation models based on convolutional neural networks . Experiments suggest that even though invoice text descriptions are brief and present many mistakes and typos, simple term frequency models can achieve high baseline results on product code assignments.

Teses
1
  • Aloisio Dourado Neto
  • Towards Complete 3D Indoor Scene Understanding from a Single Point-of-View

  • Orientador : TEOFILO EMIDIO DE CAMPOS
  • MEMBROS DA BANCA :
  • TEOFILO EMIDIO DE CAMPOS
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • VINICIUS RUELA PEREIRA BORGES
  • ANDERSON DE REZENDE ROCHA
  • GABRIELA OTILIA CSURKA KHEDARI
  • Data: 11/10/2022

  • Mostrar Resumo
  •  Realizar inferências sobre cenas em 3D é uma tarefa natural para humanos. A nossa percepção visual é a habilidade de interpretar e inferir informações sobre o ambiente que nos cerca usando a luz refletida que entra em nossos olhos através da córnea e atinge a retina. Por meio do nosso sistema de visão binocular, nós podemos naturalmente realizar tarefas como identificar o tipo de ambiente no qual nos encontramos, estimar a distância dos objetos na cena e ainda identificar quais objetos são estes. Entretanto, em Visão Computacional, este é ainda um problema muito desafiador e com muito espaço para melhorias, para o qual existem inúmeras aplicações, incluindo robótica, segurança, computação assistiva, realidade aumentada e reprodução de áudio espacial imersivo.
    Nesta tese, nós elegemos como foco a tarefa de Complementação Semântica de Cenas (em inglês Semantic Scene Completion), por ser uma das mais completas tarefas relacionadas à compreensão de cenas, já que visa inferir a geometria completa do campo de visão da cena e os rótulos semânticos de cada um dos voxels do espaço 3D sob análise, incluindo regiões oclusas. A entrada para esta tarefa é uma imagem RGB-D, que consiste de uma imagem RGB regular adicionada de uma quarto canal contendo um mapa de profundidade da cena. Tal imagem geralmente é obtida por meio de sensores de luz estruturada como o Microsoft Kinect, mas pode também ser obtida por câmeras estereoscópicas associadas a um algoritmo de estimação de profundidade.

    Nosso objetivo norteador é melhorar os métodos atuais de Complementação Semântica de Cenas, tanto em qualidade quanto no nível de cobertura da cena. Para tanto, nesta tese, nós formulamos e avaliamos uma série de hipóteses utilizando redes convolucionais profundas. 

    Considerando que o estado da arte atual para este problema utiliza redes neurais totalmente convolucionais (em inglês Fully Convolutional Network - FCN), que normalmente requerem quantidades elevadas de dados para treinamento, e considerando também a dificuldade de obtenção de dados totalmente rotulados em 3D, antes de entrar no problema de Complementação Semântica em 3D propriamente dito, nós exploramos alternativas para contornar este dificuldade em um problema mais simples: segmentação semântica em 2D. Em 2D, nós exploramos o uso de Transferência de Aprendizado (\emph{Transfer Learning}) e Adaptação de Domínio (\emph{Domain Adaptation}) na tarefa de segmentação de pele. Tais conceitos foram adaptados para 3D e amplamente explorados posteriormente na tarefa de complementação semântica de cenas.

    No domínio 3D, nós introduzimos e avaliamos uma maneira completamente nova de explorar a informação RGB presente na imagem RGB-D. Utilizando as bordas da imagem RGB, foi possível detectar objetos que não eram detectáveis nas soluções anteriores baseadas exclusivamente no mapa de profundidade, a exemplo de quadros planos ou TVs de tela plana colocados em paredes. Esta solução recebeu o nome de EdgeNet e atingiu resultados promissores na época de seu lançamento.  Posteriormente, nós avançamos no uso dos dados RGB por meio das probabilidades a priori extraídas a partir de uma de rede segmentação semântica 2D. Os dados \emph{a priori} foram usados como guia semântico para a parte 3D da solução em uma rede FCN multi-modal com data augmentation}. 

    Nós completamos nossas contribuições relativas à melhoria da qualidade das inferências, combinado a técnica de Adaptação de Domínio explorada nos estágios iniciais da nossa pesquisa com a nossa rede 3D multi-modal atingindo resultados impressionantes.     

    Em relação à cobertura da cena, que hoje é restrita ao campo de visão limitado de sensores RGB-D convencionais, como o Microsoft Kinect, nós propusemos uma abordagem para estendê-la para 360$^{\circ}$ usando imagens RGB panorâmicas e mapas de profundidade obtidos a partir de sofisticados sensores de 360 graus ou a partir de câmeras panorâmicas de baixo custo, montadas em um configuração estereoscópica. Os resultados promissores obtidos com a abordagem proposta foram usados com sucesso em um sistema de reprodução de áudio espacial imersivo.

    Nossos estudos preliminares em 2D foram publicados na 34th SIBGRAPI Conference on Graphics, Patterns and Images (SIBGRAPI 2021). Nossas contribuições no domínio 3D foram publicadas em 3 conferências de visão computacional de alto nível: International Conference on Pattern Recognition (ICPR 2020); IEEE/CVF Winter Conference on Applications of Computer Vision (WACV 2022) e Conference on Computer Vision Theory and Applications (VISAPP 2020).

    O sistema de reprodução de áudio espacial imersivo usando a nossa solução 3D em 360 graus foi publicado na revista Virtual Reality Journal (VIRE). 


  • Mostrar Abstract
  • While reasoning about scenes in 3D is a natural task for humans, it remains a challenging problem in Computer Vision,  despite great advances we have seen in the last few decades. Automatic understanding of the complete 3D geometry of a indoor scene and the semantics of each occupied 3D voxel has many applications, such as robotics,  surveillance,  assistive  computing,  augmented reality and immersive spatial audio reproduction. With this research project, we intend to contribute to enhance the current computational results on scene understanding, both on accuracy and coverage. We focus on the task of Semantic Scene Completion, one of the most complete tasks related to scene understanding, as it aims to infer the complete 3D geometry and the semantic labels of each voxel in a scene, including occluded regions. In this thesis, we formulate and access a series of hypothesis to improve current methods both in quality and in scene coverage. Before getting into the problem of 3D SSC, we explored Domain Adaptation methods to address problems related to scarcity of labeled training data in image segmentation tasks in 2D to further apply to 3D. In the 3D SSC domain, we  introduced and evaluated a completely new way to explore the RGB information provided in the RGB-D input and complement the depth information. We showed that this leads to an enhancement in the segmentation of hard-to-detect objects in the scene. We further advanced in the use of RGB data by using semantic priors from the 2D image as a semantic guidance to the 3D segmentation and completion in a multi-modal data-augmented 3D FCN. We complete the contributions related to the quality improvement by combining a Domain Adaptation technique accessed in the earlier stages of the research to our multi-modal network with impressive results. Regarding the scene coverage, which today is restricted to the limited field of view of regular RGB-D sensors like Microsoft Kinect, we complete our contributions with a new approach to extend the current methods to 360-degree using panoramic RGB images and corresponding depth maps from 360-degree sensors or stereo 3D 360-degree cameras.

2
  • André Lauar Sampaio Meirelles
  • Aprendizado Ativo Efetivo e Eficiente para Análise de Imagens em Patologia Utilizando Aprendizado Profundo

  • Orientador : GEORGE LUIZ MEDEIROS TEODORO
  • MEMBROS DA BANCA :
  • ADRIANO ALONSO VELOSO
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • CELIA GHEDINI RALHA
  • GEORGE LUIZ MEDEIROS TEODORO
  • RENATO ANTÔNIO CELSO FERREIRA
  • Data: 14/10/2022

  • Mostrar Resumo
  • Modelos de aprendizado profundo demonstraram notável desempenho em tarefas de seg-
    mentação e classificação de imagens de patologia. Entretanto, esses modelos demandam
    grandes quantidades de dados anotados para seu treinamento. A geração dessa massa
    de dados em patologia é um processo intensivo em mão de obra, comprometendo muitas
    horas de trabalho por parte de patologistas experientes. O Aprendizado Ativo, ou Active
    Learning (AL), oferece uma abordagem iterativa para a geração dessas bases de dados,
    reduzindo o custo das anotações. Nesse trabalho, foi proposta uma nova solução de apren-
    dizado ativo, denominada Diversity-Aware Data Acquisition (DADA), e foi avaliada sua
    efetividade na classificação baseada em patches de regiões de tecido de histopatologia. O
    DADA usa uma lógica de agrupamento que leva em consideração as características das
    imagens, extraídas de modelos de aprendizado profundo, e a incerteza preditiva desses
    modelos para selecionar exemplos de treinamento significativos. Além de produzir con-
    juntos de treinamento reduzidos, os custos de anotação também são diminuídos com
    ganhos de tempo de processamento, com o uso de uma solução de simplificação de CNNs
    também desenvolvida neste trabalho, o Network Auto-Reduction (NAR). Com o NAR,
    tanto o custo de cálculo das incertezas preditivas, quanto de treinamento de modelos, são
    fortemente reduzidos. Adicionalmente, para viabilizar a utilização da solução na prática,
    uma interface gráfica Web foi adaptada para uso com o DADA. O DADA e o NAR
    foram avaliados experimentalmente sobre uma coleção de imagens de tecido cancerígeno
    e demonstraram que: (i) são selecionados patches que aceleram o processo de treinamento
    ao reduzir o número deles necessários para se atingir um dado nível de Area Under the
    Curve (AUC); (ii) com o uso de subpooling o DADA apresenta significativa redução dos
    tempos de cada iteração de aquisição; e (iii) a combinação do DADA com NAR traz
    os tempos de execução de cada iteração a patamares práticos, mantendo a capacidade
    preditiva dos modelos de deep learning alvo. A generalização tanto do DADA quanto
    do NAR a outros contextos e aplicações são trabalhos futuros previstos, incluindo áreas
    como sensoriamento remoto e problemas de segmentação.


  • Mostrar Abstract
  • Deep learning methods have demonstrated remarkable performance in pathology image
    segmentation and classification tasks. However, these models require a large amount of
    annotated training data. Training data generation is a labor intensive process in digital
    pathology, often requiring substantial time commitment from expert pathologists. Ac-
    tive learning (AL) offers an iterative approach to generate training data needed by deep
    learning models, reducing the cost of manual data annotation. In this work, a new AL
    acquisition method, named Diversity-Aware Data Aquisition (DADA), is proposed and
    evaluated regarding its effectiveness in patch-based detection and classification of tissue
    image regions. The proposed method uses a clustering logic that takes into account image
    features, extracted from the deep learning model being trained, and model prediction un-
    certainty to select meaningful training samples (image patches). Besides reducing training
    set sizes, annotation costs are also diminished by computation time gains using a CNN
    simplification solution also developed in this work, the Network Auto-Reduction (NAR).
    With NAR, both uncertainty calculation costs and model training times are strongly re-
    duced. Additionally, to make these solutions viable in practice, a Web based graphical
    interface was adapted to be used with DADA. The DADA/NAR solutions were exper-
    imentally evaluated with a collection of cancer tissue images and are able to: (i) select
    image patches that accelerate the training process by reducing the number of patches
    required to attain a given Area Under the Curve (AUC) value; (ii) using a subpooling
    approach, DADA dramatically reduces iteration times needed to select a new annota-
    tion set; and (iii) the combination of DADA and NAR brings down the execution times
    even more, reaching practical levels while keeping the predictive capacity of models. The
    generalisation of both DADA and NAR to other contexts and applications are expected
    future work, including application in areas such as remote sensing and image segmentation
    problems.

3
  • Elton Sarmanho Siqueira
  • Uma Abordagem Automatizada para Estimar a Experiência do Jogador em Eventos de Jogo usando Sinais Psicofisiológicos

  • Orientador : RICARDO PEZZUOL JACOBI
  • MEMBROS DA BANCA :
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • DANIELA GORSKI TREVIZAN
  • ESTEBAN WALTER GONZALEZ CLUA
  • RICARDO PEZZUOL JACOBI
  • TIAGO BARROS PONTES E SILVA
  • Data: 14/11/2022

  • Mostrar Resumo
  • Como os jogos eletrônicos emergem como uma das maiores formas de entretenimento
    no mundo, ocorre a necessidade de uma melhor compreensão da experiência do jogador.
    Assim, os estudos sobre esse tema crescem exponencialmente e concentram-se no desen-
    volvimento de procedimentos para o aperfeiçoamento de diversos aspectos do jogo, como
    o game design, que impactam diretamente na interação do jogador com jogo.
    Existem diversas abordagens para avaliar a experiência do jogador, dentre elas, temos
    as avaliações tradicionais que utilizam autorrelato, observação direta, questionário e
    gravação de vídeo, outras mais sofisticadas, como os métodos psicofisiológicos, que uti-
    lizam biosensores e processamento de imagens. Este último método, vem ganhando força
    no ambiente acadêmico uma vez que abre espaço para diversas linhas de estudo, at-
    ualmente vem contribuindo com resultados que mostram uma melhor compreensão da
    experiência do jogador. As avaliações tradicionais geralmente utilizam amostras peque-
    nas de participantes e alguns estudos mostram que nem sempre é possível capturar a
    verdadeira ou real experiência do jogador durante uma sessão do jogo, principalmente
    quando a sessão é extensa. Nesse caso, o emprego das avaliações usando métodos psicofi-
    siológico vêm reduzir alguns problemas existentes da avaliação tradicional. Desta forma, o
    valor do presente estudo compreende em um processo que avalia a experiência do jogador
    adotando um modelo de predição com uso de redes neurais que utiliza um dataset afetivo
    derivado dos dados psicofisiológicos (EDA, BVP e expressões faciais) dos participantes
    do experimento. Além disso, este estudo compara os resultados gerados pelo modelo pro-
    posto com o modelo de autorrelato do participante, com a finalidade de verificar se ambos
    os resultados possuem concordância e se o modelo desenvolvido viabiliza uma nova forma
    de avaliar a interação do jogador com jogo.
    No geral, esta pesquisa identifica a avaliação da experiência do jogador usando da-
    dos psicofisiológicos como uma abordagem distinta e robusta. O autor propõe algumas
    recomendações para empregar esta abordagem ao lado da avaliação tradicional, criando
    uma abordagem híbrida. Entretanto, existem algumas limitações para o uso da avaliação
    psicofisiológica em termos de seus custos financeiros, processamento e execução. Por fim,
    a metodologia empregada nesse trabalho junto com seus resultados apresentam uma nova
    contribuição para as pesquisas relacionadas ao processo de avaliação da experiência do
    jogador.


  • Mostrar Abstract
  • Electronic games emerge as one of the biggest forms of entertainment in the world. As a
    consequence, a better understanding of the player experience is necessary. Thus, studies
    on this topic growth exponentially and are concentrated in the development of approaches
    for improvement of many aspects of the game, such as game design, which impacts the
    interaction of the player with game directly.
    There are several approaches to evaluate the player’s experience. Among them, we
    have traditional evaluation approaches that make use of self-report, direct observation,
    questionnaire and video recording, as well as more sophisticated approaches, such as
    psychophysiological methods, which make use of biosensors and image processing. This
    last evaluation approach has been gathering strength in the academic field since several
    line of researches emerges from it. Currently, results obtained from psychophysiological
    approaches have contributed for a better understanding of the player’s experience. Gen-
    erally, traditional evaluation approaches make use of small numbers of participants. Due
    that, some studies show that it is not always possible to capture the true or real expe-
    rience of the player during a game session, especially after long sessions of game play.
    In this case, evaluations using psychophysiological methods will reduce some problems
    of the traditional approaches. Thus, the present study proposes a process that evaluates
    the player’s experience by adopting a prediction model developed using a neural network,
    which make use of an affective dataset derived from the psychophysiological data (EDA,
    BVP and facial expressions) of the participants of the experiment. In addition, this study
    compares the proposed model with the participant’s self-report model, in order to verify
    whether the results of those models are in agreement and whether the developed model
    enables a new way of evaluating the player’s interaction with the game.
    In summary, this research performs a player experience evaluation using psychophys-
    iological data as a different and robust approach. The author proposes some recommen-
    dations for employing this approach alongside traditional approach, creating a hybrid
    method. However, there are some limitations to the use of psychophysiological evaluation
    in terms of its financial costs, processing and execution. Finally, the methodology used
    in this work, together with its results, present a new contribution to researches related to
    the process of evaluating the player’s experience.

SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2025 - UFRN - app24.sigaa24