Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UnB

2025
Dissertações
1
  • LEONARDO CARDOSO BOTELHO
  • ATTITUDE STABILIZATION AND ALTITUDE CONTROL OF A TWIN-ENGINE TILTROTOR AERIAL WITH INHOMOGENEOUS PROPULSION

  • Orientador : GEOVANY ARAUJO BORGES
  • MEMBROS DA BANCA :
  • ATILA MADUREIRA BUENO
  • GEOVANY ARAUJO BORGES
  • HENRIQUE CEZAR FERREIRA
  • HUGO TADASHI MUNIZ KUSSABA
  • Data: 10/01/2025

  • Mostrar Resumo
  • O presente trabalho descreve um modelo dinâmico não linear de uma plataforma aérea
    tiltrotor bimotor e realiza a identificação dos seus parâmetros físicos com foco no sistema de
    propulsão não homogênea, situação na qual os motores de propulsão em conjunto com suas
    hélices não se comportam de maneira idêntica do ponto de vista físico. Além disso, também
    é desenvolvida duas propostas de sistemas de controle para atitude e altitude, além de um
    simulador no software Simulink.
    A primeira proposta aplica a técnica de reiforceiment learning TD3 para sintonizar controladores
    da família PID aplicados em um sistema dinâmico não linear de uma plataforma
    aérea tiltrotor bimotor com sistemas de propulsão homogêneo e não-homogêneo. O objetivo
    do projeto de controle é estabilizar a atitude do sistema e realizar o controle de altitude, além
    de avaliar diferentes funções de recompensa durante o processo de aprendizagem.
    A segunda proposta de controle é uma aplicação da teoria do controle ótimo, utilizandose
    LMI (Linear Matrix Inequality), onde se faz alocação robusta de polos para um controlador
    PI ideal. Ainda, é proposta uma arquitetura conveniente para mitigar o problema de
    propulsão não homogênea, onde se utiliza uma matriz de ponderação para lidar com a diferença
    de propulsão como dinâmica não modelada.
    Por fim, desenvolve-se um conjunto de simulações em Matlab/Simulink para avaliar
    comparativamente as duas propostas utilizando-se índices de desempenho e gráficos de respostas
    dos controladores.


  • Mostrar Abstract
  • The present work describes a non-linear dynamic model of a twin-engine tiltrotor aerial
    platform and identifies its physical parameters with a focus on the non-homogeneous propulsion
    system, a situation in which the propulsion engines together with their propellers do not
    behave identically. from a physical point of view. In addition, two proposed control systems
    for attitude and altitude are also developed, as well as a simulator using the Simulink
    software.
    The first proposal applies the TD3 reinforcement learning technique to tune PID family
    controllers applied to a non-linear dynamic system of a twin-engine tiltrotor aerial platform
    with homogeneous and non-homogeneous propulsion systems. The aim of control design is
    to stabilize the system’s attitude and perform altitude control, as well as evaluate different
    reward functions during the learning process.
    The second control proposal is an application of optimal control theory, using LMI (Linear
    Matrix Inequality), where a robust allocation of poles is made for an ideal PI controller.
    Furthermore, a convenient architecture is proposed to mitigate the inhomogeneous propulsion
    problem, where a weighting matrix is used to deal with the propulsion difference as
    unmodeled dynamics.
    Finally, a set of simulations in Matlab/Simulink is developed to comparatively evaluate
    the two proposals using performance indices and controller response graphs.

2024
Dissertações
1
  • Gisela Sousa Ferreira
  • An Alternative Differential Protection Scheme for Electrical Microgrids

  • Orientador : FRANCIS ARODY MORENO VASQUEZ
  • MEMBROS DA BANCA :
  • FRANCIS ARODY MORENO VASQUEZ
  • FERNANDO CARDOSO MELO
  • KLEBER MELO E SILVA
  • JOSE CARLOS DE MELO VIEIRA JUNIOR
  • Data: 13/05/2024

  • Mostrar Resumo
  • A integração de microrredes de produção distribuída (GD) no sistema elétrico de energia tem provocado alterações significativas na abordagem à proteção do sistema elétrico, nomeadamente no que diz respeito à dinâmica do fluxo de potência. À luz destas transformações, este estudo teve como objetivo avaliar um mecanismo de proteção baseado na corrente diferencial. Em microrredes activas, esta função diferencial é colaborada por um elemento incremental para reforçar as medidas de segurança. Para atingir este objetivo, uma microrrede de média tensão (MT) foi concebida e simulada utilizando o software EMTP por zonas de proteção. O esquema de relés foi avaliado exaustivamente e foram efectuadas simulações para testar a sua eficácia. Os resultados demonstraram que o algoritmo proposto responde de forma fiável e segura a vários tipos de curto-circuitos que ocorrem em diferentes locais da microrrede, com diferentes valores de impendância, em tempo simultâneo. Além disso, o seu desempenho robusto foi confirmado em diferentes condições operacionais, incluindo os modos on-grid e off-grid, bem como topologias em anel e radiais. O método de proteção proposto constitui uma alternativa viável para a proteção de microrredes, devido à sua simplicidade, à menor necessidade de transformadores de corrente (TC) em comparação com os esquemas de proteção diferencial tradicionais e à sua fiabilidade e segurança globais. 


  • Mostrar Abstract
  • The integration of distributed generation (DG) microgrids into the electrical power system has brought about significant changes in the approach to electrical system protection, particularly concerning power flow dynamics. In light of these transformations, this study aimed to assess a protection mechanism based on differential current. In active microgrids, this differential function is collaborated by an incremental element to enhance security measures. To achieve this objective, a medium voltage (MV) microgrid was designed and simulated using EMTP software by protection zones. The relay scheme was thoroughly evaluated, and simulations were conducted to test its efficacy. Results demonstrated that the proposed algorithm reliably and safely responds to various types of short circuits occurring at different locations within the microgrid, with different values of impendance, in simultaneous time. Furthermore, its robust performance was confirmed under different operational conditions, including on-grid and off-grid modes, as well as ring and radial topologies. The proposed protection method offers a viable alternative for microgrid protection attributable to its simplicity, reduced requirement for current transformers (CT) compared to traditional differential protection schemes, and its overall reliability and safety.

2
  • ANDREY OTACÍLIO OLIVEIRA DOS REIS
  • CLASSIFICAÇÃO DE IMAGENS COM ARTEFATOS DE COMPRESSÃO: UMA ABORDAGEM FIM-A-FIM
  • Orientador : DANIEL GUERREIRO E SILVA
  • MEMBROS DA BANCA :
  • DANIEL GUERREIRO E SILVA
  • EDUARDO PEIXOTO FERNANDES DA SILVA
  • FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
  • HUGO VALADARES SIQUEIRA
  • Data: 27/05/2024

  • Mostrar Resumo
  • A classificação refinada de imagens é uma modalidade de inferência muito importante em visão computacional devido a sua utilidade em abordar problemas que possuem um número elevado de classes. Além de exigir modelos com maior capacidade de aprendizado, o conjunto de imagens usadas no treinamento deve conter uma grande quantidade de amostras de boa qualidade. A presença de compressão com perdas, porém, ao degradar a qualidade do sinal pode dificultar drasticamente a tarefa do classificador. Por se tratar de algo que até mesmo viabiliza a composição dos conjuntos de treinamento dos modelos, a compressão e os seus impactos nesse tipo de aplicação não pode ser ignorada. Nesse trabalho propomos uma arquitetura de Rede Neural (RN) capaz de mitigar significativamente os prejuízos causados pela compressão JPEG, para tanto ela conta com uma dupla ramificação de redes que serão treinadas em conjunto. Os dois ramos, um para Redução de Artefatos da Compressão (RAC) e outro para classificação, são conectados de forma que a saída do primeira é a entrada do segundo. O ramo de RAC consiste em uma RN de geração de imagens responsável pela redução dos efeitos de perdas no sinal comprimido. O ramo de classificação, por sua vez, se utiliza de uma RN pré-treinada para receber essas imagens reconstruídas como entrada e executar a classificação. Dessa forma, o treinamento multi-objetivo é capaz tanto de melhorar a qualidade do sinal priorizando características importantes para a classificação quanto de se adaptar a receber imagens restauradas com certa degradação para realizar a inferência. Nos dois conjuntos de imagens que utilizamos, Caltech 200 Cub e Oxford 102 Flower, aumentamos a acurácia média para 10 fatores de qualidade (FQs) diferentes em 45.6% e 5.81%, respectivamente. Apesar da pouca flexibilidade do modelo em relação aos FQs e a necessidade de um treinamento adicional, o nosso trabalho evidencia uma forte correlação entre a eficiência do codificador e o desempenho do classificador. Além de apresentar uma arquitetura que extrai grande proveito desse aspecto para melhorar o processo de classificação de imagens comprimidas


  • Mostrar Abstract
  • Fine-grained image classification is a very important category of classification in computer vision due to its usefulness in tackling problems with a large number of classes. As well as requiring models with greater learning capacity, the datasets used for training must contain a large number of good quality samples. However lossy compression can drastically hinder the classifier’s task by degrading the signal quality. Compression and its impact on this type of application cannot be ignored, as it is something that even makes it possible to compose the training datasets for the models. In this work, we propose a Neural Network (NN) architecture capable of significantly mitigating the damage caused by JPEG compression. To do so, it relies on a double branch of structures that will be trained together. The two branches, one for Compression Artifacts Reduction (CAR) and the other for classification, are connected in such a way that the output of the first is the input of the second. The CAR branch consists of an image generation NN responsible for reducing the losses effects in the compressed signal. In turn, the classification branch uses a pre-trained NN to receive these reconstructed images as input and perform the classification. In this way, multi-objective training is able both to improve the signal quality by prioritizing important features for classification and to adapt to receiving restored images with a certain amount of degradation in order to carry out inference. In the two datasets we used, Caltech 200 Cub and Oxford 102 Flower, we increased the average accuracy for 10 different quality factors (QFs) by 45.6% and 5.81%, respectively. Despite the model’s lack of flexibility with regard to QFs and the need for additional training, our work shows a strong correlation between codec efficiency and classifier performance. It also presents an architecture that takes great advantage of this aspect to improve the compressed image classification process.

3
  • Gabriel Pimenta de Freitas Cardoso
  • DEEP REINFORCEMENT LEARNING E HIPER-HEURÍSTICA APLICADOS À ALOCAÇÃO DE RECURSOS EM SISTEMAS DE COMUNICAÇÕES 6G COM COMUNICAÇÕES D2D E SENSOREAMENTO

  • Orientador : PAULO ROBERTO DE LIRA GONDIM
  • MEMBROS DA BANCA :
  • PAULO ROBERTO DE LIRA GONDIM
  • HUGERLES SALES SILVA
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • JOSE MARCOS CAMARA BRITO
  • Data: 28/05/2024

  • Mostrar Resumo
  • Este trabalho propõe uma estratégia para a realização conjunta da alocação de espectro e do controle de potências em sistemas de comunicações móveis de 5G e gerações futuras com sensoreamento integrado. A aplicação tratada neste trabalho se situa em um contexto relacionado à Indústria 4.0, abarcando um cenário industrial com comunicações primárias, comunicações D2D e sensores. A solução proposta para realizar a alocação de recursos nesse sistema é composta pela conjunção de duas técnicas no estado da arte: algoritmos de Deep Reinforcement Learning (DRL) e Hiper-Heurísticas (HH). O primeiro algoritmo que forma a estratégia conjunta proposta neste trabalho foi desenvolvido utilizando-se redes neurais treinadas por meio de técnicas de DRL para controle de potências. O segundo algoritmo, que completa a estratégia proposta, foi desenvolvido através de técnicas relacionadas à aplicação de HHs em conjunção com algoritmos de DRL, para realização da alocação do espectro disponível. A estratégia conjunta teve como objetivos principais: proteger as comunicações primárias, almejando-se reduzir a taxa de outage para garantia de uma comunicação de qualidade; além de proteger os sensores do sistema, objetivando-se reduzir a taxa de outage dos sensores para garantir que a probabilidade de detecção estivesse acima de um limiar pré definido. Como objetivo secundário, o algoritmo proposto buscou-se maximizar a taxa de transmissão das comunicações D2D. Os resultados mostraram que o algoritmo de controle de potências que obteve o melhor desempenho, em comparação com outros algoritmos da área no estado da arte, foi o Proximal Policy Optimization (PPO). Esse algoritmo proposto, separadamente ao de alocação do espectro, foi capaz, em um Resource Block (RB), de reduzir a taxa de outage das comunicações primárias de 64.35% para 11.75%, reduzir a taxa de outage dos sensores de 38.5% para 4.4% e aumentar a SNIR das comunicações D2Ds de -25.6 dB para -7.5 dB, se comparado com os resultados obtidos por um algoritmo aleatório. Para a estratégia completa, isto é, com algoritmos de DRL e HH realizando tanto o controle de potências quanto a alocação do espectro, os resultados indicaram que, em comparação com uma alocação de recursos baseada em escolhas aleatórias, a estratégia conjunta foi capaz de reduzir a taxa de outage das comunicações primárias de 65.8% para 13.3%, reduzir a taxa de outage dos sensores de 48.1% para 3.3% e aumentar a SNIR das comunicações D2Ds de -24.3 dB para -11.2 dB em sistemas com múltiplos RBs. Além disso, o algoritmo se mostrou escalável para sistemas com diferentes quantidades de comunicações, sensores e RBs, sendo aplicável em diferentes configurações do sistema. 


  • Mostrar Abstract
  • This work proposes a strategy for the joint execution of spectrum allocation and power control in 5G mobile communication systems and future generations with integrated sensing. The application addressed in this work is situated in a context related to Industry 4.0, encompassing an industrial scenario with primary communications, D2D communications, and sensors. The proposed solution for resource allocation in this system consists of the conjunction of two state-of-the-art techniques: Deep Reinforcement Learning (DRL) algorithms and Hyper-Heuristics (HH). The first algorithm that forms the proposed joint strategy in this work was developed using neural networks trained through DRL techniques for power control. The second algorithm, which completes the proposed strategy, was developed using techniques related to the application of HHs in conjunction with DRL algorithms for the allocation of available spectrum. The main objectives of the joint strategy were: to protect primary communications, aiming to reduce the outage rate to ensure quality communication; and to protect the system’s sensors, aiming to reduce the sensor outage rate to ensure that the detection probability was above a predefined threshold. As a secondary objective, the proposed algorithm sought to maximize the transmission rate of D2D communications. The results showed that the power control algorithm that performed best, compared to other state-of-the-art algorithms in the area, was Proximal Policy Optimization (PPO). This proposed algorithm, separately from the spectrum allocation algorithm, was able, in a Resource Block (RB), to reduce the primary communications outage rate from 64.35% to 11.75%, reduce the sensor outage rate from 38.5% to 4.4%, and increase the SNIR of D2D communications from -25.6 dB to -7.5 dB, compared with the results obtained by a random algorithm. For the complete strategy, that is, with DRL and HH algorithms performing both power control and spectrum allocation, the results showed that, compared to a resource allocation based on random choices, the joint strategy was able to reduce the primary communications outage rate from 65.8% to 13.3%, reduce the sensor outage rate from 48.1% to 3.3%, and increase the SNIR of D2D communications from -24.3 dB to -11.2 dB in systems with multiple RBs. Additionally, the algorithm proved scalable for systems with varying amounts of communications, sensors, and RBs, being applicable in different system configurations.

4
  • Larissa Aidê Araújo Rocha
  • METHODS FOR ESTIMATING USER POSITION IN THE NEAR-FIELD REGIME

  • Orientador : DANIEL COSTA ARAUJO
  • MEMBROS DA BANCA :
  • DANIEL COSTA ARAUJO
  • ADONIRAN JUDSON DE BARROS BRAGA
  • UGO SILVA DIAS
  • FELIX DIETER ANTREICH
  • Data: 29/05/2024

  • Mostrar Resumo
  • A estimativa de parâmetros usando métodos de processamento de sinais é um tópico significativo em vários domínios, como radar, análise sísmica, sonar, vigilância eletrônica e muito mais. Essa pesquisa concentrou-se em duas áreas principais no processamento de sinais: processamento de conjuntos de antenas e processamento de usuário estimativa de posição. No contexto do processamento de arranjos de antenas, a localização do usuário envolve estimar o parâmetros de posição de fontes, muitas vezes empregando métodos de subespaço, como Classificação de Sinais Múltiplos (MÚSICA) e estimativa de parâmetros de sinal por meio de técnicas de invariância rotacional (ESPRIT), entre outros. Em cenários de campo distante, uma fonte é caracterizada apenas pela sua direção de chegada (DOA). No entanto, esta suposição não é mais válida em situações de campo próximo onde as fontes estão próximas do conjunto de sensores. Nesses cenários, a frente de onda do sinal torna-se esférico, necessitando da consideração de dois parâmetros para localização precisa da fonte: a direção de chegada e a distância entre a fonte e o conjunto de sensores. A estimativa da posição do usuário em campo próximo é crucial devido a vários fatores, especialmente quando considerando redes avançadas como a sexta geração (6G), onde melhorias adicionais são esperado em localização e rastreamento. Estas melhorias resultarão da utilização conjunta de altas frequências e grandes matrizes. Com o aumento significativo do número de antenas e frequência portadora em futuros sistemas 6G, a região de campo próximo de conjuntos de antenas extremamente grandes (ELAAs) expandir-se-ão em ordens de grandeza. Como resultado, as comunicações de campo próximo desempenham um papel crítico nas futuras redes móveis 6G, onde o modelo de propagação deve levar em conta para diferenças em relação aos sistemas existentes de quinta geração (5G) de campo distante. A densidade espacial e a capacidade de interações eletromagnéticas entre elementos vizinhos em ELAAs introduz considerações exclusivas para estimativa de posição de campo próximo. Compreender e abordar estes complexidades serão o foco principal desta pesquisa. Esta dissertação investiga dois aspectos interconectados da localização de fontes: localização bidimensional localização da fonte (2D) no campo próximo e localização da fonte tridimensional (3D) no campo próximo. 

    perto do campo. Em nossa abordagem de localização de fonte 2D, especificamente para coordenadas [x,y], propomos um método inovador que combina a estimativa adaptativa de subespaço com a arquitetura de submatriz para localizar usuários com precisão em cenários de campo próximo. Ao incluir as técnicas de submatriz adaptadas para ELAAs, exploramos a invariância rotacional em cada submatriz para implementar o PAST Algoritmo (rastreamento de subespaço de aproximação de projeção). Esta abordagem é computacionalmente eficiente devido à sua fórmula de atualização recursiva, que nega a necessidade de cálculo computacional tarefas intensivas como inversões de matrizes ou decomposições de autovalores. Em termos de precisão, nosso método supera as abordagens existentes, conforme demonstrado em gráficos de erro quadrático médio (RMSE) e gráficos de avaliações de função distribuída cumulativa (CDF). Além disso, o a precisão do algoritmo PAST a uma distância de 3,5 metros é de 0,0250 metros no percentil 10, superando outros métodos de localização de fonte. Da mesma forma, a 25 metros, o PAST atinge uma precisão de 0,3983 (percentil 10). Esses resultados destacam a precisão e a confiabilidade do PAST para localização precisa da fonte em cenários de campo próximo, tornando-o uma escolha robusta para tais formulários. Para localização de fontes 3D, especificamente para coordenadas [x, y, z], introduzimos um novo método de estimativa de posição tridimensional (3D-P) projetado para sistemas sem fio que empregam Uniform Rectangular Arrays (URAs). Esta abordagem particiona virtualmente o array em submatrizes, cada um tem a tarefa de estimar independentemente os ângulos de azimute e elevação. Para lidar com os dados multidimensionais de forma eficaz, empregamos a decomposição de valores singulares de ordem superior (HOSVD), reduzindo o tamanho do tensor para uma representação mais concisa da estrutura de dados, particularmente benéfico em aplicações URA. Além disso, utilizamos a aproximação da série de Taylor para resolver problemas não lineares. problemas de mínimos quadrados, contribuindo para estimativas de posição precisas, mesmo em cenários complexos com 8 dispersões. Nossa abordagem mostra a eficácia do algoritmo na mitigação de multipercursos interferência, com a potência do ruído exercendo influência mínima. Os resultados indicam que o submetro a precisão é alcançável em SNRs de 30 e 40 dB para os espalhamentos 2 e 8 em todos os percentis, enfatizando a robustez da técnica em condições favoráveis.


  • Mostrar Abstract
  • Parameter estimation using signal processing methods is a significant topic in various domains such as radar, seismic analysis, sonar, electronic surveillance, and more. This research has focused on two key areas within signal processing: antenna array processing and user position estimation. In the context of antenna array processing, the user’s localization involves estimating the position parameters of sources, often employing subspace methods such as Multiple Signal Classification (MUSIC) and estimation of Signal Parameters via Rotational Invariance Techniques (ESPRIT), among others. In far-field scenarios, a source is characterized solely by its direction of arrival (DOA). However, this assumption no longer holds in near-field situations where sources are close to the sensor array. In such scenarios, the wavefront of the signal becomes spherical, necessitating the consideration of two parameters for accurate source localization: the direction of arrival and the distance between the source and the sensor array. The near-field user position estimation is crucial due to several factors, especially when considering advancing networks like sixth-generation (6G), where further improvements are expected in localization and tracking. These improvements will result from the joint use of high frequencies and large arrays. With the significant increase of the antenna number and carrier frequency in future 6G systems, the near-field region of extremely large antenna arrays (ELAAs) will expand by orders of magnitude. As a result, near-field communications will play a critical role in future 6G mobile networks, where the propagation model must account for differences from existing far-field fifth-generation (5G) systems. The spatial density and the capacity of electromagnetic interactions between neighboring elements in ELAAs introduce unique considerations for near-field position estimation. Understanding and addressing these complexities will be the primary focus of this research. This dissertation delves into two interconnected aspects of source localization: two-dimensional (2D) source localization in the near-field and three-dimensional (3D) source localization in the near-field. In our 2D source localization approach, specifically for coordinates [x,y], we propose an innovative method that combines the adaptive subspace estimation with the sub-array architecture to accurately locate users in near-field scenarios. By including the sub-array techniques tailored for ELAAs, we explore the rotational invariance in each sub-array to implement the PAST (Projection Approximation Subspace Tracking) algorithm. This approach is computationally efficient due to its recursive update formula, which negates the necessity for computationally intensive tasks like matrix inversions or eigenvalue decompositions. In terms of precision, our method surpasses existing approaches, as demonstrated in graphs of root-mean-square error (RMSE) and graphs of cumulative distributed function (CDF) evaluations. Furthermore, the accuracy of the PAST algorithm at a distance of 3.5 meters is 0.0250 meters at the 10th percentile, outperforming other source localization methods. Similarly, at 25 meters, PAST achieves an accuracy of 0.3983 (10th percentile). These results highlight PAST’s accuracy and reliability for precise source localization in near-field scenarios, making it a robust choice for such applications. For 3D source localization, specifically for coordinates [x,y, z], we introduce a novel threedimensional position (3D-P) estimation method designed for wireless systems employing Uniform Rectangular Arrays (URAs). This approach virtually partitions the array into subarrays, each is tasked with independently estimating azimuth and elevation angles. To handle the multidimensional data effectively, we employ Higher-Order Singular Value Decomposition (HOSVD), reducing tensor size for a more concise representation of data structure, particularly beneficial in URA applications. Additionally, we utilize Taylor series approximation to address non-linear least square problems, contributing to accurate position estimations, even in intricate scenarios with 8 scatters. Our approach showcases the algorithm’s efficacy in mitigating multipath interference, with noise power exerting minimal influence. The results indicate that sub-meter accuracy is attainable at 30 and 40 dB SNRs for the 2 and 8 scatters in all percentiles, emphasizing the robustness of the technique in favorable conditions. 

5
  • Gabriel Helbourn Bastos
  • Proposta de Sistema de Gerenciamento de Energia para Microrrede com Geração Fotovoltaica, Biogás e Armazenamento de Energia

  • Orientador : FERNANDO CARDOSO MELO
  • MEMBROS DA BANCA :
  • FERNANDO CARDOSO MELO
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FRANCIS ARODY MORENO VASQUEZ
  • LUCAS PEREIRA PIRES
  • Data: 31/05/2024

  • Mostrar Resumo
  • Microrredes representam o futuro dos sistemas elétricos de potência, e para que funcione adequadamente, um sistema de gerenciamento de energia da microrrede (MEMS) deve ser projetado para encontrar a melhor maneira de lidar com a carga de forma confiável. Este estudo tem como objetivo propor e simular um MEMS de uma microrrede localizada na Universidade de Brasília e composta por três recursos energéticos distribuídos (REDs): painéis fotovoltaicos, usina termelétrica a biogás e um sistema de armazenamento de energia em bateria. Para a simulação foi preciso recolher informações de perfil de consumo da unidade consumidora e do potencial energético para que os REDs pudessem ser bem dimensionados. O algoritmo sugerido foi desenvolvido para os modos conectado e ilhado, buscando priorizar o sistema fotovoltaico e considerando o estado de carga na tomada de decisão. O horário também deve ser monitorado de modo a reduzir ou cortar a contribuição da rede para carga em período de pico, como serviço ancilar. Simulações foram realizadas para semanas específicas e para o ano inteiro de 2023, com o intuito de validar o sistema de gerenciamento de energia e verificar possíveis desligamentos. Considerando o cenário anual, a mínima e máxima geração fotovoltaica foi de 30,33 e 41,59 MWh nos meses de abril e novembro, respectivamente, enquanto a maior carga consumida foi no mês de maio, atingindo 78,56 MWh. A potência fornecida pela rede oscilou entre 12,63 MWh e 33,21 MWh, tendo uma redução de mais de 60%. Além disso, foi avaliado o custo total da energia consumida por cada fonte, pela microrrede e o quanto seria gasto pelo sistema sem a microrrede. Os resultados das simulações foram muito positivos, com boas respostas às interrupções da rede e alcançando uma economia de R$ 318.579,49 no ano de 2023.


  • Mostrar Abstract
  • Microgrids represent the future of electrical power systems, and for them to function properly, a microgrid energy management system (MEMS) must be designed to find the best way to handle the load reliably. This study aims to objective to propose and simulate a MEMS for a microgrid located at the University of Brasília and composed of three distributed energy resources (REDs): photovoltaic panels, biogas thermoelectric plant and a battery energy storage system. For the simulation it was necessary collect information on the consumer unit’s consumption profile and energy potential to so that REDs could be scaled well. The suggested algorithm was developed for connected and islanded modes, seeking to prioritize the photovoltaic system and considering the state of burden on decision making. The schedule must also be monitored in order to reduce or cut the network's contribution to peak period load, as an ancillary service. Simulations were carried out for specific weeks and for the entire year 2023, with the aim of validating the system power management system and check for possible shutdowns. Considering the annual scenario, the minimum and maximum photovoltaic generation was 30.33 and 41.59 MWh in the months of April and November, respectively, while the largest load consumed was in the month of May, reaching 78.56 MWh. The power supplied by the grid ranged between 12.63 MWh and 33.21 MWh, with a reduction of more than 60%. Furthermore, the total cost of energy consumed by each source was evaluated, by microgrid and how much would be spent by the system without the microgrid. The results of the simulations were very positive, with good responses to network interruptions and achieving savings in R$318,579.49 in 2023.

6
  • Téssio Perotti Arruda
  • Optimizing 3D Antenna Arrays and Ground Station Distribution for Satellite Communication

  • Orientador : SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • MEMBROS DA BANCA :
  • SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • DANIEL COSTA ARAUJO
  • RENATO ALVES BORGES
  • ALLAN KARDEC DUAILIBE BARROS FILHO
  • Data: 31/05/2024

  • Mostrar Resumo
  • Este trabalho tem o objetivo de porpor uma distribuição de estações de solo que maximizem o contato e o downlink com um satélite de órbita baixa em um dado território. Ele está inserido no contexto do projeto ”Estação Terrena Autônoma Distribuída de Baixo Cuto e Alta Taxa de Download”, aprovado na chamada CNPq/AEB/MCTI/FNDCT Nº 20/2022 do programa UNIESPAÇO, cujo objetivo é determinar a viabilidade de uma estação terrestre programável remotamente, idealmente sem partes móveis, em regiões não polares, e com uma meta de custo inferios a um décimo do custo das estações terrestres contemporâneas para construir e manter. Esse tipo de estudo é pouco explorado com aplicações ao território brasileiro, que foi o escolhido como cenário das análises deste trabalho, embora as ferramentas desenvolvidas possuam aplicação para qualquer região de interesse. Ainda com a ideia de explorar aplicações nacionais, um dos satélites que foi utilizado neste trabalho foi o VCUB1, o primeiro satélite de observação da Terra que foi projetado pela indústria nacional. Para atingir essa finalidade, uma ferramenta em python foi desenvolvida com as seguintes funcionalidades: simular antenas parabólicas e de microfita, realizar a rotação de campos distantes de antenas fisicamente rotacionadas, combinar várias antenas fisicamente rotacionadas e posicionadas de forma não uniforme em um arranjo, avaliar o link budget de um enlace de comunicação satelital, distribuir estações de solo através de um dado território de forma a maximizar a cobertura, maximizar a cobertura de estações de solo restritas a posições fixas em um território e projetar um array sem partes móveis capaz de manter um nível constante de potência em relação a um passe de satélite de órbita baixa. O trabalho inicia com um capítulo relacionado com a fundamentação teórica do problema, em que são apresentadas as equações que foram implementadas nos módulos do pacote em python. As necessidades de propagação de órbitas de satélites e cálculos de acesso foram supridas por meio do software SMET, também desenvolvido no contexto do projeto. Um dos objetivos é integrar as ferramentas desenvolvidas neste trabalho com esse software já existente. Dessa forma, ao fim do projeto, espera-se entregar um software completo para realizar análises envolvendo enlaces de comunicação satelitais. Nesse capítulo, o satélite americano SAC-C foi utilizado como benchmark das ferramentas desenvolvidas, por já ter sido alvo de estudos de link budget e possuir dados disponíveis. A seguir, apresenta a solução do problema de distribuição de estações de solo para maximizar a cobertura de um dado satélite de órbita baixa. Para isso, foi sugerido um processo em três etapas utilizando diferentes técnicas de otimização, com cada etapa resolvendo deficiências das etapas passadas. O primeiro passo envolveu um relaxamento do problema para que ele fosse capaz de ser modelado de forma convexa, restringindo as estações de solo a um grid grosseiro sob o território brasileiro. O resultado dessa otimização convexa foi, então, usado como entrada para outra abordagem que considerava que não mais restringia as estações de solo a um grid. No entanto, considerava uma aproximação para o padrão de cobertura das antenas, considerandoas circulares em um grid de latitude e longitude e também não restringia as antenas a estarem dentro do território de interesse. Por fim, esse resultado foi usado como entrada de um algoritmo genético de evolução diferencial, que foi capaz de incluir todas as restrições desejadas. Cada etapa refinou o resultado inicialmente encontrado pela otimização convexa, que se mostrou eficaz mesmo com o relaxamento do problema. Também foi apresentada uma modificação do problema, considerando as estações de solo restritas a locais específicos do país, em que haja infraestrutura suficiente para facilitar a manutenção dessas estações. Nesse caso, as variáveis a serem otimizados foram os parâmetros das antenas utilizadas, como o diâmetro do refletor parabólico. O resultado encontrado, então, foi comparado com uma estação posicionada próximo ao polo sul, obtendo capacidades semelhantes de download. Finalmente, foi proposta uma otimização de forma a obter um arranjo de antenas sem partes móveis capaz de manter um nível de potência constante ao longo da trajetória de um satélite de órbita baixa. O arranjo encontrado foi capaz de manter o nível aproximadamente constante de potência. No entanto, ainda apresenta um grande espalhamento de energia, dificultando a capacidade de fechar enlaces de comunicação satelitais com esse tipo de arranjo. Nesse contexto do cálculo de arranjo de antenas, foi integrada outra ferramenta desenvolvida no contexto do projeto, chamada AFTK. Essa ferramenta é capaz de reconstruir os campos de uma antena em qualquer ponto a partir de uma amostra dos campos utilizando modos esféricos. Em resumo, foi possível encontrar um procedimento que é capaz de maximizar a área coberta por estações de solo considerando os passes de um satélite, além de também propor uma solução de estações de solo dentro do território nacional com capacidades de downlink similares a uma estação próxima ao Polo Sul e também propor um arranjo sem partes móveis capaz de manter um nível de potência aproximadamente constante durante um passe de satélite. Isso foi alcançado com o desenvolvimento de ferramentas que foram integradas a outros softwares desenvolvidos no contexto do projeto CNPq. 


  • Mostrar Abstract
  • This work investigates the design and optimization of 3D antenna arrays and ground station distribution for satellite communication systems. It has the objective of proposing a ground station distribution that maximizes the contact and downlink data with a LEO satellite over a given territory. The dissertation begins with a theoretical foundation, reviewing key antenna types such as parabolic reflectors and microstrip antennas. It discusses radiation fields from apertures and directivity from electric fields, providing essential background information. The study then explores satellite propagation and link budgets, analyzing factors such as transmitted power, free space losses, signal-to-noise ratio and satellite link quality. Ground station distribution is addressed through a multi-step problem analysis, where the distribution across Brazil is assessed to determine optimal locations for effective satellite communication. Various optimization algorithms, including convex optimization, sequential least squares, and differential evolution, are employed to model and optimize ground station distribution, with a focus on improving overall network performance. The next chapter introduces an approach to antenna array design that allows antennas to be positioned and steered in any 3D configuration. It begins with a discussion on physically steered arrays, where the relative positions, feed coefficients, and rotations of individual antennas are defined. The chapter provides equations to compute the resulting electric fields, illustrating these concepts with practical examples and simulation results. Is then proposed an approach focusing on creating arrays with specific patterns, using optimization algorithms to achieve constant field strength across a range of angles. A final section explores a design for considering satellite passes, optimizing a fixed-position array to track the trajectory of a specific satellite. Finally, it is presented the overall conclusions and considerations regarding the found results. First, it is proposed a ground station distribution that maximizes link coverage with a specific satellite over a given territory. Second, the scenario is slightly modified to consider ground station that are constrained to specific places. In this case, the variable to be optimized to maximize the satellite link coverage are the antenna parameters, like the diameter of a parabolic reflector. Lastly, it is proposed an antenna array design that maintains constant power level in the direction of a satellite pass with no moving parts.

7
  • Igor Bispo de Moraes Coelho Correia
  • Detecção de Desmatamento em Imagens SAR usando Redes Neurais Profundas.

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • EDUARDO PEIXOTO FERNANDES DA SILVA
  • DANIEL GUERREIRO E SILVA
  • RENATO ALVES BORGES
  • HÉLCIO VIEIRA JUNIOR
  • Data: 03/06/2024

  • Mostrar Resumo
  • Dadas as limitações das imagens ópticas de satélite, o radar de abertura sintética (SAR) se destaca pela sua resistência a condições climáticas adversas. No entanto, o reconhecimento preciso das áreas desmatadas áreas em imagens SAR são necessárias devido ao ruído pontilhado e à variabilidade do objeto. Neste trabalho, nós realizou um experimento online com participantes voluntários que identificaram áreas desmatadas em imagens SAR. Para conseguir isso, desenvolvemos um software que permite aos participantes anotar as imagens SAR, delimitando áreas desmatadas. Com os resultados desta experiência, foi possível analisar a relação entre o nível de experiência autodeclarado pelos participantes e a precisão na detecção de áreas desmatadas. Também comparamos o desempenho humano e o desempenho obtido com um modelo automático baseado na arquitetura UNet. Os resultados mostram que maior conhecimento em sensoriamento remoto ou SAR não garante notas de qualidade. Além disso, o desempenho da UNet supera o desempenho obtido com humanos no tarefa. Para explorar com mais profundidade a segmentação de imagens SAR, um segundo experimento foi realizado usando modelos de última geração para segmentação em dados SAR fundidos e ópticos. O estudo reforça o potencial do aprendizado profundo na detecção de desmatamento, enfatizando a necessidade para melhoria contínua de arquiteturas e formação de especialistas.


  • Mostrar Abstract
  • Given the limitations of optical satellite images, synthetic aperture radar (SAR) stands out for its resistance to adverse weather conditions. However, accurate recognition of deforested areas in SAR images is required due to speckle noise and object variability. In this work, we carried out an online experiment with volunteer participants who identified deforested areas in SAR images. To achieve this, we developed software that allows participants to annotate the SAR images, delimiting deforested areas. With the results of this experiment, it was possible to analyze the relationship between the participants’ self-declared experience level and the accuracy in detecting deforested areas. We also compare human performance and the performance obtained with an automatic model based on the UNet architecture. The results show that greater knowledge in remote sensing or SAR does not guarantee quality grades. Furthermore, UNet’s performance surpasses the performance obtained with humans on the task. To explore the segmentation of SAR images in more depth, a second experiment was carried out using state-of-the-art models for segmentation on fused SAR and optical data. The study reinforces the potential of deep learning in detecting deforestation, emphasizing the need for continuous improvement of architectures and training of specialists

8
  • Antonio Bittar Bigonha
  • A COMPARISON OF DYNAMIC COOPERATION CLUSTERING ALGORITHMS AND PILOT ASSIGNMENT METHODS ON PERFORMANCE, COMPLEXITY AND FAIRNESS OF USER CENTRIC MIMO UPLINK

  • Orientador : DANIEL COSTA ARAUJO
  • MEMBROS DA BANCA :
  • DANIEL COSTA ARAUJO
  • HUGERLES SALES SILVA
  • UGO SILVA DIAS
  • IGOR MOACO GUERREIRO
  • Data: 28/06/2024

  • Mostrar Resumo
  • User Centric Massive MIMO ou Cell Free MIMO proõem uma alternativa aos convencionais sistemas cellular MIMO, visto que possuem como objetivo uma distribuição mais uniforme das taxas de transmissão entre os usuários. Cell free atinge esse objetivo ao explorar a diversidade geográfica do meio de comunicaçá, ao conectar o usuário a vários acess points espalhados ao longo de um grid. Pesquisas iniciais a respeito de sistemas user centric sugeriram que o usuário deveria ser servido por todos os access points em sua proximidade, o que resultaria em desempenho quase ótimo. Estudos recentes, no entanto, mostraram que tal configuracção pode sser irrealizável na presença de um número elevado de acces points. Um algoritmo que conecta um usuário aos access points por meio de métricas de cancelamento de interferência provou requerer menos potência computacional, com uma perda mínima de desempenho. Tal método possui desempenho insuficiente em ambientes em que uma estimativa de canal de maior qualidade se faz necessária. Este trabalho propõe um método alternativo, que se mostra mais realizável em tais ambientes. Adicionalmente, sugere dois algoritms para assinalamento dos access points que não dependem da técnica utlizada para estimar o canal, de tal maneira que podem ser usados até em ambientes em que se facça uso de estimativa não linear do canal. Um ponto chave deste trabalho é estabelecer uma comparação entre os métodos de assinalamento de access points no que se refere à viabilidade de seus usos em redes convencionais, por exemplo em relação ao aumento do número de usuários, qualidade de estimativa do canal e adiçao de novos access points. Outro objetivo é a comparação desses métodos a convencionais, como sistemas celulares. Outro objetivo é a comparação do desempenho de sistemas com estatísticas perfeitas e imperfeitas de canal, e, finalmente, o desempenho destes métodos para diferenres métricas de cancelamento de interferência (os algoritmos de assinalamento de pilotos).


  • Mostrar Abstract
  • User Centric Massive MIMO or Cell Free MIMO propose an alternative to conventional cellular MIMO systems, where the latter aims for a more uniform distribution of data rates among the user equipments. Cell free achieves that by expoiting the geographical diversity of the communication media, by connecting the user equipment to various acess points scattered around the grid. Early reasearch on user centric systems have suggested that the user equipment should be served by all of its neighboring access points for near optimal performance. Recent studies, however, have shown that such configuration may be unfeasible when there are many such access points. An algorithm that assigns the user equipment to access points based on interference cancellation metrics has been shown to require less computational power, with minimum performance loss. Such method does not perform well, however, on environments where greater channel estimation quality is required. This work proposes an alternative method, that shows itself to be more feasible on such situations. Additionally, it introduces two other methods of access point assignment that do not depend on the channel estimate technique, being suitable even for environments with non-linear channel estimation, opposed to the other two methods. One key point of this work is to establish a comparison between the access points clustering methods on feasibility of conventional networks, such as the increasing number of user equipments, quality of channel estimation, and addition of nerwer acess points. Another key objective is the comparison of such methods to more conventional network configuations such as cellular networks. Another key aspect is the performance over known and unknown channel statistics, and the limitaions of such methods on imperfect statistics environments. The final objective, is to compare performance of such methods for different interference cancellation metrics (the pilot assignemnt algorithms).

9
  • Jefferson Carlos Tavares Oliveira de Lima
  • IMPLEMENTAÇÃO DE MODELAGEM E SOLUÇÃO DE SISTEMAS DE CORRENTE CONTÍNUA EM ALTA TENSÃO NO PROGRAMA DE FLUXO DE POTÊNCIA CA MATPOWER

  • Orientador : FRANCISCO DAMASCENO FREITAS
  • MEMBROS DA BANCA :
  • FRANCISCO DAMASCENO FREITAS
  • FERNANDO CARDOSO MELO
  • KLEBER MELO E SILVA
  • ANTONIO FELIPE DA CUNHA DE AQUINO
  • Data: 10/07/2024

  • Mostrar Resumo
  • Esta dissertação apresenta uma ferramenta computacional que, incorporada ao programa de solução de fluxo de potência CA MATPOWER, permite a resolução do problema de fluxo de potência (PFP) em redes integradas CA-CC. A integração foi possível através da incorporação de novos scripts desenvolvidos especificamente para possibilitar a interligação de redes CA e CC. A resolução do PFP utiliza uma abordagem alternada em que o método de Newton-Raphson é usado para determinação dos estados magnitude de tensão e ângulo em barras CA. A partir desses resultados, são calculadas iterativamente as variáveis do lado CC e vice-versa. Esse processo prossegue até a convergência final do PFP. Para demonstrar a abordagem proposta, foi desenvolvido um procedimento adequado para a entrada de dados de modelagem relativos ao elo CC e leitura pelo programa MATPOWER adaptado. Além disso, foram implementados scripts com comandos para o cálculo da solução das equações dos elos CC, incorporação em outros scripts de comando do MATPOWER e apresentação dos resultados obtidos em formato apropriado. Por fim, os resultados dos testes no MATPOWER foram validados através de comparações de testes realizados no aplicativo ANAREDE, ficando compravada a equivalência dos resultados.


  • Mostrar Abstract
  • This MSc dissertation presents a computational tool which, incorporated into the MATPOWER AC power flow solution program, the resolution of the power flow problem (PFP) in integrated AC-DC networks. The integration was possible by incorporating new scripts specifically developed to enable the interconnection of AC and DC networks. The PFP resolution uses an alternating scheme in which the Newton-Raphson method determines AC bars’ voltage magnitude and angle states. From these results, the variables on the DC side and vice versa are calculated iteratively. This process continues until the final convergence of the PFP. To demonstrate the efficacy of the proposed approach, a suitable procedure was developed for inputting modeling data relating to the CC link and reading it using the adapted MATPOWER program. Furthermore, scripts with commands were implemented to calculate the solution of the CC link equations, incorporate them into other MATPOWER command scripts, and present the results appropriately. Finally, the results of the tests in MATPOWER were validated through comparisons of tests carried out in the ANAREDE application, ensuring the equivalence of the results.

10
  • BRENO DE ALMEIDA MENEZES
  • Análise de risco da viabilidade técnico-econômica de uma usina híbrida composta por uma usina heliotérmica com armazenamento térmico e por uma usina fotovoltaica com armazenamento por baterias

  • Orientador : ANESIO DE LELES FERREIRA FILHO
  • MEMBROS DA BANCA :
  • ANESIO DE LELES FERREIRA FILHO
  • KLEBER MELO E SILVA
  • MARIO BENJAMIM BAPTISTA DE SIQUEIRA
  • DAYWES PINHEIRO NETO
  • Data: 13/09/2024

  • Mostrar Resumo
  • O aumento contínuo no consumo de energia elétrica, aliado à preocupação crescente com a segurança energética e à necessidade de reduzir as emissões de gases poluentes, justifica a complexidade e os desafios do cenário nacional e mundial atual. Nesse contexto, as tecnologias de energia renovável, como a Solar Fotovoltaica (PV) e a Solar Concentrada (CSP), caracterizam-se como uma solução sustentável e ecologicamente correta para suprir a crescente demanda por energia, tanto no Brasil quanto globalmente. Considerando esses fatores, surgiu a ideia de desenvolvimento deste estudo, cujo objetivo é realizar uma análise de riscos de investimentos em geração de energia elétrica por meio de usinas híbridas CSP + PV, que utilizam: i) topologia torre solar para CSP; ii) usina PV; e iii) sistemas de armazenamento térmico e de bateria. Para cada usina, será elaborada uma metodologia de análise de risco que: i) emprega modelos estocásticos para a geração das séries sintéticas das variáveis aleatórias que influenciam a produção energética e a viabilidade econômica; ii) modela o sistema físico que caracteriza a sua operação; e iii) utiliza o modelo de fluxo de caixa para a análise de viabilidade econômica do investimento. A análise de viabilidade econômica da usina híbrida baseia-se no modelo de fluxo de caixa descontado (FCD) para a empresa (FCLE) e para os acionistas (FCLA). Ela será efetuada considerando-se que a energia elétrica produzida será comercializada no Ambiente de Contratação Regulado (ACR). Além disso, este estudo contempla as particularidades legislativas e tributárias com esta venda de energia no ACR. Os resultados fornecem informações do potencial de geração e dos indicadores de viabilidade econômica do investimento. No cenário inicial proposto para a usina híbrida, os indicadores econômicos mencionados apontaram a inviabilidade econômica, independentemente do fluxo de caixa adotado. Diante deste quadro, e com o objetivo de se avaliar como os principais parâmetros afetam a viabilidade econômica, executou-se uma análise de sensibilidade univariada para o valor presente líquido para o FCLE e para o FCLA dos seguintes parâmetros: preço de venda da energia elétrica no ACR, CAPEX, taxa de câmbio, taxa mínima de atratividade e montante anual de energia de contrato. De posse dos resultados da análise de sensibilidade, propôs-se um contexto otimista para instalação da usina híbrida em Bom Jesus da Lapa. Nesta hipótese, modifica-se os mesmos parâmetros que foram variados na análise de sensibilidade univariada para valores mais positivos. Neste caso, todos os indicadores econômicos mencionados apontam a viabilidade econômica e probabilidade de não retorno do investimento igual a zero, independentemente do fluxo de caixa adotado. Cabe destacar que os modelos adotados são específicos para o Brasil, mas eles podem ser adaptados para outros países. Isto posto, este estudo resultará em uma ferramenta para a tomada de decisão, especialmente no contexto das energias renováveis e das usinas híbridas, ainda incipientes no Brasil.


  • Mostrar Abstract
  • The continuous increase in electricity consumption, coupled with growing concerns about energy security and the need to reduce greenhouse gas emissions, justifies the complexity and challenge of the current national and global scenario. In this context, renewable energy technologies such as Photovoltaic Solar (PV) and Concentrated Solar Power (CSP) are characterized as sustainable and environmentally friendly solutions to meet the growing demand for energy, both in Brazil and globally. Considering these factors, the idea for this study emerged, aiming to conduct a risk analysis of investments in electricity generation through CSP + PV hybrid plants, which utilize: i) solar tower topology for CSP; ii) PV plant; and iii) thermal storage and battery systems. For each plant, a risk analysis methodology will be developed that: i) employs stochastic models for generating synthetic series of the random variables that influence energy production and economic viability; ii) models the physical system that characterizes its operation; and iii) uses the cash flow model for the economic viability analysis of the investment. The economic viability analysis of the hybrid plant is based on the discounted cash flow (FCD) model for the firm (FCLE) and for the shareholders (FCLA). It will be carried out considering that the electricity produced will be sold in the Regulated Contracting Environment (ACR). Additionally, this study considers the legislative and tax particularities associated with selling energy in the ACR. The results provide information on the generation potential and the economic viability indicators of the investment. In the initial scenario proposed for the hybrid plant, the mentioned economic indicators pointed to economic infeasibility, regardless of the cash flow model adopted. Given this situation, and with the objective of evaluating how the main parameters affect economic viability, a univariate sensitivity analysis was performed for the net present value for FCLE and FCLA of the following parameters: electricity sale price in the ACR, CAPEX, exchange rate, minimum attractive rate, and annual energy contract amount. Based on the sensitivity analysis results, an optimistic context for the installation of the hybrid plant in Bom Jesus da Lapa was proposed. In this hypothesis, the same parameters varied in the univariate sensitivity analysis are modified to more positive values. In this case, all the mentioned economic indicators point to economic feasibility and a zero probability of investment non-return, regardless of the cash flow model adopted. It is worth noting that the models adopted are specific to Brazil but can be adapted to other countries. Therefore, this study will result in an decision-making tool, especially in the context of renewable energy and hybrid plants, which are still emerging in Brazil.

11
  • PEDRO HENRIQUE DORNELAS ALMEIDA
  • The α-F Composite Distribution with Pointing Errors: Characterization, Performance and Applications

  • Orientador : HUGERLES SALES SILVA
  • MEMBROS DA BANCA :
  • UGO SILVA DIAS
  • DANIEL COSTA ARAUJO
  • ROBSON DOMINGOS VIEIRA
  • TARCISIO FERREIRA MACIEL
  • Data: 27/09/2024

  • Mostrar Resumo
  • The composite fading distribution α-F with pointing errors is proposed in this work. New expressions for the probability density function and cumulative distribution function of the envelope/instantaneous signal-to-noise ratio (SNR), higher-order moments, and moment generation function of the instantaneous SNR are derived. Based on the above-mentioned statistics, expressions for the outage probability, symbol error probability, and ergodic channel capacity are obtained. The asymptotic analyses are also provided. Several scenarios were studied, such as the application of the α-F model with pointing errors in an emerging wireless system, i.e., reconfigurable intelligent surfaces (RIS), a Cascaded and Sum of Cascaded scenario, which refers to multiple signal relay stations, and a scenario using non-orthogonal multiple access (NOMA), facilitating access to many users. Several curves, corroborated by Monte Carlo simulations, are presented for different values that characterize the channel parameters and pointing error.


  • Mostrar Abstract
  • A distribuição de desvanecimento composta α-F com erros de apontamento é proposta neste trabalho. Novas expressões são derivadas para a função densidade de probabilidade e função de distribuição cumulativa do envelope/relação sinal-ruído instantânea (SNR), momentos de ordem superior e função geratriz de momentos da SNR instantânea. Com base nas estatísticas mencionadas acima, expressões são obtidas para a probabilidade de indisponibilidade, probabilidade de erro de símbolo e capacidade ergódica do canal. Análises assintóticas também são fornecidas. Diversos cenários são estudados, como a aplicação do modelo α-F com erros de apontamento em cenários com múltiplos saltos, superfícies inteligentes reconfiguráveis (RIS) e sistemas de acesso múltiplo não ortogonal (NOMA). Diversas curvas, corroboradas por simulações de Monte Carlo, são apresentadas para diferentes valores que caracterizam os parâmetros do canal. Todas as expressões deduzidas neste trabalho são inéditas.

12
  • Ricardo Bauchspiess
  • A Degradation-Robust Deep Learning Framework for MRI Computer-Aided Brain Tumor Diagnosis

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • DANIEL GUERREIRO E SILVA
  • FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
  • CRISTIANO JACQUES MIOSSO RODRIGUES MENDES
  • FÁTIMA NELSIZEUMA SOMBRA DE MEDEIROS
  • Data: 12/11/2024

  • Mostrar Resumo
  • Tumores cerebrais são crescimentos anormais de células do cérebro ou do sistema nervoso central, os quais são responsáveis por uma estimativa de mais de 200.000 mottes por ano 19 mundo todo. O prognóstico para pacientes com câncer cerebral pode, porém, ser melhorado com diagnóstico e tratamento precoce. O teste mais recomendado para o diagnóstico de tumores cerebrais é a ressonância magnética (RM) cranial e métodos de inteligência artificial (TA) demonstraram potentcial em aumentar a eficiência de radiologistas e reduzir o erro humano no diagnóstico de tumores do cérebro a partir de imagena de ressonância magnética, Assiu como em outras modalidades de imagens, ressonâncias magnéticas podem ser afetadas por dia-torções ou degradações que pioram a utilidade clínica desses imagens e prejudicam métodos automáticos de diagnóstico por imagem. Para obter um diagnóstico de tumor cerebral a partir de imagens de ressonância magnética 2D de forma robusta contra degradações de imagens, nós propomos uma solução em duas etapas. Na primeira etapa nós utilizamos um modelo trans-former em forma de U, chamado Uformer, para remover distorções e restaurar as imagens e em seguida utilizamos uma tede neural convolucional (RNCi, particularmeute a Efficient) et. para classificar a imagem restaurada e obter um diagnóstico quanto a tumotes cerebrais. Para treinar o modelo de restauração de imageus, nos definitos uma função para gerar um número arbitrário de tipos de distorções em imagens, assim tremando o modelo para remover combinações arbitrárias de degradações em imagens de ressonancia magnética do cérebro. Nossa solução foi testada em imagens coms degradações artifictes e em 5 «atasets que incluiam ins-gens degradadas. Os experimentos testaram dilementes métodos de gerar imagens degradadas para treinamento dos modelos e compararam dilerentes modelos de podes neurais profundas para restauração e classificação de imagens.


  • Mostrar Abstract
  • Brain tumors are abnormal cell growths that affect the brain or central nervous system
    (CNS) and are estimated to be the cause of death of over 200,000 individuals each year. Prognosis for brain tumor patients can, however, be improved by early diagnosis and treatment. The gold standard test for brain tumor diagnosis is the cranial Magnetic Resonance Imaging (MRI) and artificial intelligence (AI) methods have shown potential to improve radiologist efficiency and reduce human errors by predicting brain tumor diagnosis from Magnetic Resonance (MR) images. Like other imaging methods, MRI is susceptible to image distortions or degradations that impair the clinical utility of such images and negatively impact Al methods used to analyse brain MRI images. To obtain degradation-robust brain diagnosis from 2D MRI images we propose a two stage diagnosis method. Pirst we use a U-shaped transformer model, called Uformer, to perform image restoration, removing image distortions, and then we use Convolu-tional Neural Network (CNN) models, namely the Efficient Net, to obtain diagnosis predictions trom the restored images. To train the restoration model, we propose an sutilact generation function that trains the restoration model to restore images allected by an arbitrary number
    of degradation types. We tested our solution on artificially degraded images and ou 5 different brain tumor MRI datasets, which included image degradations, and also compared the perior-
    mance of different methods to generate the traiming data and deep lenring model to pertorm
    image restoration and classiticution.

13
  • Josaphat Desbas
  • LOW-COST MICROWAVE SENSOR FOR DETECTING THE FIRST GENERATION OF MICROPLASTIC IN AQUEOUS MEDIA

  • Orientador : ACHILES FONTANA DA MOTA
  • MEMBROS DA BANCA :
  • ACHILES FONTANA DA MOTA
  • ADONIRAN JUDSON DE BARROS BRAGA
  • AUGUSTO MARTINS
  • VINICIUS MARRARA PEPINO
  • Data: 28/11/2024

  • Mostrar Resumo
  • RESUMO
    A poluição por microplásticos tornou
    -se um problema ambiental crítico, com implicações
    para os ecossistemas e a saúde humana. Microplásticos, definidos como partículas de plástico

    menores que 5 mm, são encontrados em diversos ambientes, como oceanos, rios
    e até mesmo
    naáguapotável.Estetrabalhodedissertaçãovisadesenvolvereutilizarressoadores

    interdigitais de microondas para a detecção de microplásticos na água, oferecendo uma

    abordagem sensível, de baixo custo e eficaz para monitoramento ambiental
    .
    Foram apresentados dois modelos de ressoadores RF do tipo microstrip, escolhidos após

    um estudo meticuloso das diferentes tecnologias de linha de transmissão, como Microstrip,

    Stripline, Coplanar Waveguide (CPW) e Slot Line, para determinar qual se encaixa
    ria melhor
    nos objetivos de detecção de microplásticos. Após essa análise, foi calculado o tamanho

    aproximado do circuito em função da faixa de frequência (1 a 6 GHz). A tecnologia microstrip

    foi escolhida, simulada no software HFSS, onde a topologia do ci
    rcuito foi ajustada para atingir
    a melhor frequência de ressonância. Após a otimização, foram registradas duas frequências de

    ressonância de 3.313 GHz e 4.057 GHz, com um fator de qualidade de 47.41. Esses resultados

    motivaram o desenvolvimento de um segun
    do modelo com um efeito mais capacitivo para criar
    umcampomagnéticomaiornoressoador.
    Ambososcircuitosforamcaracterizados
    virtualmente no HFSS em condições variadas: circuito vazio, circuito com vidro de diferentes

    espessuras (usado para isolar a á
    gua do cobre e evitar curto-circuito), canal feito por PDMS
    (vazio, com água e com água poluída com microplástico). Os resultados dos dois circuitos

    mostraram diferenças significativas na presença e ausência do poluente.

    A próxima etapa foi a fabricação dos circuitos utilizando o método de "fotolitografia".

    Nesse processo, uma tinta fotossensível foi aplicada nas placas de PCB através de um "spinner"

    com rotação de 2000 rpm para garantir a uniformidade da tinta sobre o PCB
    . Uma vez seca e
    protegida da exposição à luz, a placa foi exposta à luz UV por 5 a 8 minutos com uma máscara

    do circuito, seguida pela imersão numa solução reveladora. Após o circuito ser revelado, a

    placa foi mergulhada numa solução de percloreto de ferr
    o para corroer o cobre que não fazia
    parte do circuito. Por fim, a tinta remanescente foi removida para revelar o circuito finalizado. Com os circuitos prontos, foram realizados testes de calibração, em condições vazias, com
    vidro, com canal sem água, com água e, finalmente, com microplástico. Os resultados foram
    satisfatórios, com o Modelo 1 apresentando um deslocamento de 570 MHz ao ser testado com
    microplásticos de borracha de pneu, e um deslocamento de 15 MHz ao usar fragmentos de
    garrafa plástica. O Modelo 2, testado nas mesmas condições, apresentou deslocamentos de
    frequência de X MHz para o microplástico de pneu e Y MHz para o microplástico de garrafa.
    Os circuitos demonstraram ser versáteis e promissores, gerando resultados no mínimo
    aceitáveis em outros experimentos, como a verificação da concentração de gordura e ferro no
    leite materno. Isso é possível devido às propriedades eletromagnéticas únicas de cada material,
    que permitem a detecção precisa através dos ressoadores desenvolvidos.


  • Mostrar Abstract
  • Microplastic pollution has become a critical environmental issue, with widespread
    implications for ecosystems and human health. Microplastics, defined as plastic particles
    smaller than 5 mm, are found in oceans, rivers, and even drinking water. Their pervasive
    presence in the environment necessitates effective detection methods to mitigate their impact.
    This research focuses on the development and use of interdigital microwave resonators to
    detect microplastics in water, offering a novel, cost-effective, and sensitive approach for
    environmental monitoring.
    Two interdigital resonators were designed and tested for their ability to detect
    microplastics by analyzing shifts in resonance frequency and quality factor (Q-factor). Model
    1, which exhibited a Q-factor of 47.41, provided a significant frequency shift when exposed to
    microplastics, demonstrating high sensitivity. Model 2 also achieved promising results of xx,
    with a slightly different Q-factor, providing a comparative analysis of the two designs. Several
    experimental tests were conducted using two types of microplastics commonly found in the
    environment: ground-tire rubber (GTR) and plastic bottle fragments. GTR particles, with
    dimensions of approximately 0.3 x 0.3 x 0.3 mm and a complex permittivity of ε = 3.65 − 0.60j,
    caused a resonance frequency shift of 570 MHz for Model 1 and 555 MHz for Model 2.
    Similarly, a plastic bottle fragment, with dimensions between 150 μm and 300 μm, resulted in
    a frequency shift of 15 MHz for Model 1 and 55 MHz for Model 2.
    In addition to microplastic detection, these resonators demonstrated potential for broader
    applications, including the analysis of oil mixtures and ongoing studies on milk fat and iron
    concentration in breast milk. The versatility of the RF resonators presented in this work
    highlights their potential as a valuable tool for detecting a range of substances, making them
    highly adaptable for environmental and health-related applications.

14
  • Rebeka Passos Gomes
  • Analysis of the Impact of Integrating Distributed Energy Resources on Distribution System Reliability

  • Orientador : ANESIO DE LELES FERREIRA FILHO
  • MEMBROS DA BANCA :
  • ANESIO DE LELES FERREIRA FILHO
  • ERIKA PEQUENO DOS SANTOS
  • FRANCIS ARODY MORENO VASQUEZ
  • GABRIEL SANTOS BOLACELL
  • Data: 29/11/2024

  • Mostrar Resumo
  • A avaliação da confiabilidade de microrredes apresenta desafios maiores do que os sistemas de energia tradicionais, devido à sua estrutura e modos operacionais mais complexos. Nesse sentido, este estudo apresenta uma metodologia para identificar os impactos técnicos que microrredes compostas por geração distribuída fotovoltaica e Sistema de Armazenamento de Energia em Baterias podem provocar na avaliação da confiabilidade de sistemas de distribuição. O estudo utilizou simulações probabilísticas empregando o método de Monte Carlo. O algoritmo foi inicialmente validado usando um sistema com solução analítica estabelecida. Posteriormente, cenários com diferentes níveis de geração fotovoltaica (PV) e sistema de armazenamento de energia de bateria (BESS) foram simulados em uma rede de distribuição real brasileira para avaliar seus efeitos e identificar aqueles que trazem os maiores benefícios para a confiabilidade do sistema. Foi implementada uma operação de ilhamento variável no tempo, onde as áreas de fornecimento de energia da operação de ilhamento são alteradas dinamicamente de acordo com as cargas e a saída dos Recursos Energéticos Distribuídos (RED). Os resultados da validação do código revelaram um erro máximo de -4,10%, demonstrando a robustez do código e a confiabilidade dos resultados. Os resultados da aplicação do método no estudo de caso mostram que, em cenários com apenas a inserção do sistema FV, os benefícios em confiabilidade, ao variar o nível de penetração, são mínimos para as microrredes e o alimentador completo. Alternativamente, variar a penetração dos sistemas BES influencia o desempenho da bateria ao garantir um estado de carga (SoC) alto e estável, o que é crucial para minimizar instabilidades e aumentar a confiabilidade do sistema de distribuição no contexto da integração FV. No entanto, para penetrações que excedem 50%, há uma variação mínima adicional na estabilidade, devido à estabilização do estado do SoC. Os índices que avaliam o desempenho da microrrede durante as operações de ilhamento com variação temporal indicam um aprimoramento na utilização de cargas e RED disponível durante cenários de falha, com benefícios adicionais insignificantes do BES em níveis elevados de penetração


  • Mostrar Abstract
  • The reliability evaluation of microgrids presents greater challenges than traditional power systems, due to their more complex structure and operating modes. In this sense, this study presents a methodology to identify the technical impacts that microgrids composed of photovoltaic distributed generation and Battery Energy Storage Systems can cause in the evaluation of the reliability of distribution systems. The study utilized probabilistic simulations employing the Monte Carlo method. The algorithm was initially validated using a system with established analytical solution. Subsequently, scenarios with different levels of photovoltaic generation (PV) and battery energy storage system (BESS) were simulated in a real Brazilian distribution network to evaluate their effects and identify those that bring the greatest benefits to system reliability. It was implemented a time-varying islanding operation, where the power supply areas of the islanding operation are dynamically changed according to the loads and the DER output. The code validation results revealed a maximum error of -4.10%, demonstrating the code’s robustness and the reliability of the results. The results of applying the method in the case study show that, in scenarios with only the insertion of PV system, the benefits in reliability, when varying the penetration level, are minimal for the microgrids and the complete feeder. Alternatively, varying the penetration of BES systems influences the battery performance by ensuring a high and stable state of charge (SoC), which is crucial for minimizing instabilities and enhancing the reliability of the distribution system in the context of PV integration. However, for penetrations exceeding 50%, there is minimal further variation in stability, due to the stabilization of the State of SoC. The indices that assess the microgrid performance during time-varying islanding operations indicate an enhancement in the utilization of loads and available DER during failure scenarios, with negligible additional benefits of BES at elevated penetration levels.

15
  • DOUGLAS RAFAEL DE CASTRO AGUIAR
  • RECOMENDAÇÃO ITU-R P.1812-7: UMA PROPOSTA DE MAPEAMENTO DE OBSTRUÇÕES

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • Agostinho Linhares de Souza Filho
  • DANIEL COSTA ARAUJO
  • UGO SILVA DIAS
  • WALTER DA CRUZ FREITAS JUNIOR
  • Data: 16/12/2024

  • Mostrar Resumo
  • O aprimoramento das telecomunicações é essencial para o desenvolvimento econômico e social
    na sociedade moderna, conectando pessoas, impulsionando inovações e facilitando serviços. No
    Brasil, com suas vastas áreas de terrenos complexos e variados, de regiões urbanizadas a
    densas florestas, a eficiência do planejamento das telecomunicações depende de modelos de
    predição de propagação de sinal precisos. Neste contexto, o modelo ITU-R P.1812-7 é uma
    ferramenta de extremo valor, mas sua eficácia pode ser limitada em ambientes com grande
    variação de clutter (obstruções como vegetação e edificações). Para aprimorar a acurácia das
    perdas causadas por essas obstruções, este trabalho propõe um sistema que utiliza o dataset
    MCD12Q1 da National Aeronautics and Space Administration (NASA) para realizar o
    mapeamento de clutter, fornecendo informações detalhadas sobre o terreno para alimentar o
    modelo ITU-R P.1812-7. Sendo assim, o sistema proposto foi projetado para otimizar as
    predições do ITU-R P.1812-7. Para validar sua eficácia, dados da Agência Nacional de
    Telecomunicações (ANATEL) e do Instituto Brasileiro de Geografia e Estatística (IBGE) foram
    utilizados, comparando as predições de perdas de propagação obtidas com o sistema otimizado
    em relação a abordagens mais simples de mapeamento de clutter. Os resultados mostraram
    uma melhoria significativa na precisão, com a presença de erros máximos entre as abordagens
    em até 45dB em alguns cenários e Mean Absolute Error (MAE) superior a 10dB em certos
    estados da federação. Isso destaca a capacidade do sistema em lidar com a complexidade do
    terreno brasileiro e melhorar a acurácia em regiões desafiadoras. Esses achados sugerem que o
    uso de dados de alta resolução para mapear clutter pode otimizar modelos de predição de
    propagação, beneficiando o planejamento das telecomunicações em áreas de difícil acesso e,
    também, a sociedade brasileira, ao poder proporcionar maior conectividade, inclusão digital e
    eficiência no uso de tecnologias, essenciais para o desenvolvimento do país.


  • Mostrar Abstract
  • The enhancement telecommunications is crucial for both economic and social progress in
    contemporary society, as it fosters connectivity among individuals, stimulates innovation, and
    enables service delivery. Within Brazil, characterized by its extensive and diverse land cover that
    ranges from urbanized areas to dense forests, the effectiveness of telecommunications planning
    relies on precise models for predicting signal propagation. Within this context, the ITU-R P.1812-
    7 model is a very useful tool, however its efficiency might be limited in environments presenting
    high variability of clutter including features such as vegetation and buildings. In order to refine the
    losses provoked by such obstructions, this work aims at developing a system using the
    MCD12Q1 dataset from National Aeronautics and Space Administration (NASA) for clutter
    mapping, which provides detailed information on terrain to feed the ITU-R P.1812-7 model. For
    that reason, the proposed system was designed to optimize ITU-R P.1812-7 predictions. To
    validate its effectiveness, data from the National Telecommunications Agency (ANATEL) and the
    Brazilian Institute of Geography and Statistics (IBGE) were used, comparing the propagation loss
    predictions obtained through the optimized system in relation to simpler clutter mapping
    approaches. The results showed a significant increase in precision, with differences between
    methods peaking at up to 45dB in some cases and Mean Absolute Error (MAE) surpassing 10dB
    in certain states of the federation. This testifies that the system is able to master the subtleties of
    Brazil and increase the accuracy even in complex terrains. So, the results show that mapping clutter using high-resolution data should help to improve the propagation signal prediction models, assisting in telecommunications planning for diverse areas and have a positive impact on Brazilian society by facilitating better connectivity, digital inclusion, and greater efficiency in the use of technology.

16
  • YASMIN DA COSTA FERREIRA AVELINO
  • Empirical Models for CubeSat Stability Indices based on the Gravity-Gradient Stabilization

  • Orientador : RENATO ALVES BORGES
  • MEMBROS DA BANCA :
  • GEOVANY ARAUJO BORGES
  • HENRIQUE CEZAR FERREIRA
  • ROBERTO DE SOUZA BAPTISTA
  • SIMONE BATTISTINI
  • Data: 20/12/2024

  • Mostrar Resumo
  • Optimizing CubeSat subsystems for size, weight, power consumption, and performance is essential given the inherent constraints of CubeSat missions. The CubeSat Design Specifications (CDS) allow for mechanical designs with inertia values across five stability regions on the Gravity-Gradient Stability Map (GGSM): Lagrange, Debra-Delp, Pitch, Roll-Yaw, and Unsteady. This work investigates the application of Gravity-Gradient Stabilization (GGS), which utilizes external gravitational torque for passive stabilization, by analyzing rotational kinetic energy patterns and introducing empirical models for stability indices based on the GGSM, principal moments of inertia, and characteristic equation roots for CubeSat standards. Python-based numerical simulations and polynomial curve fitting validate the effectiveness of these models, providing a robust framework for evaluating mechanical designs and identifying configurations that enhance CubeSat attitude stability. One application of these empirical model-based indices compares GGS with commonly used active Attitude Determination and Control Systems (ADCS) - specifically magnetorquers and reaction wheels - within the CubeSat standard. The analysis focuses on control performance, power consumption, and implications for design optimization, the latter useful for structural modeling. The results indicate that configurations with lower rotational kinetic energy improve control response and overall efficiency, demonstrating the potential advantages of integrating active attitude control and GGS using the proposed empirical model-based indices. Case study scenarios were simulated considering a 500 km altitude circular orbit and were performed using the two-body method. The impact of GGS on the power generation of CubeSats was also considered in the numerical simulations. The results compare the performance of gravity gradient stability regions in terms of power generation for different CubeSat sizes. The results demonstrated that GGS provides uniform power generation for all GGSM regions. Numerical simulations were performed using Python and also the Systems Tool Kit (STK) software.


  • Mostrar Abstract
  • Optimizing CubeSat subsystems for size, weight, power consumption, and performance is essential given the inherent constraints of CubeSat missions. The CubeSat Design Specifications (CDS) allow for mechanical designs with inertia values across five stability regions on the Gravity-Gradient Stability Map (GGSM): Lagrange, Debra-Delp, Pitch, Roll-Yaw, and Unsteady. This work investigates the application of Gravity-Gradient Stabilization (GGS), which utilizes external gravitational torque for passive stabilization, by analyzing rotational kinetic energy patterns and introducing empirical models for stability indices based on the GGSM, principal moments of inertia, and characteristic equation roots for CubeSat standards. Python-based numerical simulations and polynomial curve fitting validate the effectiveness of these models, providing a robust framework for evaluating mechanical designs and identifying configurations that enhance CubeSat attitude stability. One application of these empirical model-based indices compares GGS with commonly used active Attitude Determination and Control Systems (ADCS) - specifically magnetorquers and reaction wheels - within the CubeSat standard. The analysis focuses on control performance, power consumption, and implications for design optimization, the latter useful for structural modeling. The results indicate that configurations with lower rotational kinetic energy improve control response and overall efficiency, demonstrating the potential advantages of integrating active attitude control and GGS using the proposed empirical model-based indices. Case study scenarios were simulated considering a 500 km altitude circular orbit and were performed using the two-body method. The impact of GGS on the power generation of CubeSats was also considered in the numerical simulations. The results compare the performance of gravity gradient stability regions in terms of power generation for different CubeSat sizes. The results demonstrated that GGS provides uniform power generation for all GGSM regions. Numerical simulations were performed using Python and also the Systems Tool Kit (STK)

Teses
1
  • Stephanie Miranda Soares
  • An analytical model for IEEE 802.11ah networks under the restricted access window mechanism and Rayleigh fading channel

  • Orientador : MARCELO MENEZES DE CARVALHO
  • MEMBROS DA BANCA :
  • MARCELO MENEZES DE CARVALHO
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • PAULO ROBERTO DE LIRA GONDIM
  • JULIANA FREITAG BORIN
  • RENATO MARIZ DE MORAES
  • Data: 01/04/2024

  • Mostrar Resumo
  • The IEEE 802.11ah is an amendment to the IEEE 802.11 standard to support the growth
    of the Internet of Things (IoT). One of its main novelties is the restricted access window
    (RAW), which is a channel access feature designed to reduce channel contention by dividing
    stations into RAW groups. Each RAW group is further divided into RAW slots, and stations
    only attempt channel access during the RAW slot they were assigned to. In this paper, we
    propose a discrete-time Markov chain model to evaluate the average aggregate throughput of
    IEEE 802.11ah networks using the RAW mechanism under saturated traffic and ideal channel conditions. The proposed analytical model describes the behavior of an active station
    within its assigned RAW slot. A key aspect of the model is the consideration of the event of
    RAW slot time completion during a station’s backoff operation. We study the average aggregate network throughput for various numbers of RAW slots and stations in the network. The
    numerical results derived from our analytical model are compared to computer simulations
    based on an IEEE 802.11ah model developed for the ns-3 simulator by other researchers,
    and its performance is also compared to two other analytical models proposed in the literature. The presented results indicate that the proposed analytical model reaches the closest
    agreement with independently-derived computer simulations.


  • Mostrar Abstract
  • Muitas tecnologias promissoras foram desenvolvidas desde a concepção da Internet das Coisas (IoT, do inglês Internet of Things). À luz do crescimento da IoT, o IEEE 802.11ah é uma alteração ao padrão IEEE 802.11 para enfrentar os principais desafios da IoT, que são a conectividade de muitos dispositivos a um único ponto de acesso (AP, do inglês Access Point), transmissões a longas distãncias e recursos de energia limitados. Deste modo, o IEEE 802.11ah introduz novos recursos nas camadas Física e MAC (do inglês Medium Access Control) para atender aos requisitos de IoT. Na camada Física, houve modificações para permitir a operação em faixas de frequência abaixo de 1GHz e, na camada MAC, o padrão introduz mecanismos de economia de energia para melhorar o desempenho em redes densas. Uma de suas principais inovações é a janela de acesso restrito (RAW, do inglês Restricted Access Window), que é um recurso de acesso ao canal projetado para reduzir a contenção de canais, dividindo as estações em grupos RAW. Cada grupo RAW é dividido em slots RAW, e somente as estações atribuidas a um dado slot RAW podem tentar o acesso ao canal durante o intervalo de tempo do slot RAW. Nesta tese, propomos primeiro um modelo de cadeia de Markov de tempo discreto para avaliar a vazão média agregada de redes IEEE 802.11ah que utilizam o mecanismo RAW, sob tráfego saturado e condições de canal ideal. O modelo analítico proposto descreve o comportamento de uma estação ativa dentro do seu slot RAW atribuído. O principal aspecto do modelo é a consideração do evento de conclusão do tempo de slot RAW durante o processo de backoff de uma estação. Os resultados numéricos derivados do nosso modelo analítico são comparados com simulações computacionais independentes baseadas em um módulo do IEEE 802.11ah desenvolvido para o simulador ns-3 por outros pesquisadores. Estudamos a vazão média agregada da rede para vários números de slots e estações RAW na rede e confirmamos a importância da probabilidade de término do slot RAW em nosso modelo analítico. Para isso, realizamos esta comparação em dois casos: um em que esta probabilidade foi considerada e outro em ela não foi considerada no modelo analítico. Além disso, nosso modelo analítico também é comparado com outros dois modelos analíticos propostos na literatura. Os resultados apresentados indicam que o modelo analítico proposto atinge a maior concordância com simulações computacionais derivadas independentemente. Além disso, estendemos o modelo de cadeia de Markov de tempo discreto para considerar o impacto do desvanecimento Rayleigh e da perda de caminho em grande escala na operação de redes IEEE 802.11ah. Também validamos o modelo analítico proposto por meio de simulações ns-3 e estudamos o desempenho da rede em termos de vazão em diferentes cenários, variando os esquemas de modulação e codificação (MCS, do inglês Modulation and Coding Scheme), tamanho do pacote e distância ao ponto de acesso (AP, do inglês Access Point). O modelo analítico proposto previu com precisão o desempenho da rede na maioria dos cenários. Porém, em alguns casos, observamos erros percentuais mais elevados entre o modelo analítico e as simulações computacionais. Com as simulações computacionais, percebemos que houve perdas de pacotes as quais o modelo analítico não prevê. Propomos uma expressão para ajustar a duração do slot RAW com base na distância das estações até o AP e a eficiência das estratégias de agrupamento foi medida em termos da justiça de Jain. Com nossos estudos de caso, demonstramos a necessidade de ajustar a duração do slot RAW com base na distância entre as estações e o AP para obter justiça de acesso ao canal entre os grupos.

2
  • Mayana Wanderley Pereira
  • ADVANCING FAIRNESS AND DIFFERENTIAL PRIVACY IN MACHINE LEARNING FOR SOCIALLY RELEVANT APPLICATIONS

  • Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • GEORGES DANIEL AMVAME NZE
  • MARIO REBELO LARANGEIRA JUNIOR
  • RICARDO FELIPE CUSTODIO
  • WILLIAM FERREIRA GIOZZA
  • Data: 26/04/2024

  • Mostrar Resumo
  • Esta tese investiga técnicas de aprendizado de máquina que preservam a privacidade para aplicações socialmente relevantes, focando em duas áreas específicas: detecção e identificação de Mídia de Abuso Sexual Infantil (CSAM) e geração de conjuntos de dados sintéticos que com foco em desenvolvimento ético e privado de inteligencia artifical. Abordamos o desafio de desenvolver soluções baseadas em aprendizado de máquina para detecção de CSAM enquanto consideramos as restrições éticas e legais do uso de imagens explícitas para treinamento do modelo. Para contornar essas limitações, propomos uma nova estrutura que utiliza metadados de arquivo para identificação de CSAM. Nossa abordagem envolve o treinamento e avaliação de modelos de aprendizado de máquina prontos para implantação baseados em caminhos de arquivo, demonstrando sua eficácia em um conjunto de dados de mais de um milhão de caminhos de arquivo coletados em investigações reais. Além disso, avaliamos a robustez de nossa solução contra ataques adversáriais e exploramos o uso de privacidade diferencial para proteger o modelo de ataques de inferência de modelo sem sacrificar a utilidade. Na segunda parte desta tese, investigamos as oportunidades e desafios do uso da geração de dados sintéticos no contexto do aumento da adoção de regulamentações globais de privacidade. Dados sintéticos são dados que imitam dados reais sem replicar informações pessoais, e oferecem diversas possibilidades para análise de dados e tarefas de aprendizado de máquina. No entanto, pouco se sabe sobre os impactos do uso de conjuntos de dados sintéticos em pipelines de aprendizado de máquina, especialmente quando apenas dados sintéticos estão disponíveis para treinamento e avaliação de modelo. Este estudo examina a relação entre privacidade diferencial e viés social dos algoritmos aprendizado de máquina, explorando como diferentes métodos de geração de dados sintéticos afetam o viés social dos algoritmos e comparando o desempenho de modelos treinados e testados com dados sintéticos versus dados reais. Os resultados contribuem para uma melhor compreensão do uso de dados sintéticos em pipelines de aprendizado de máquina e seu potencial para avançar o estado da arte em diversas áreas.

    Como trabalho futuro, pretendemos desenvolver protocolos para a geração de conjuntos de dados sintéticos a partir de fontes distribuídas com garantias de privacidade diferencial, sem a necessidade de uma parte confiável. O objetivo desta abordagem é permitir que detentores de dados compartilhem seus dados sem violar restrições éticas e legais.


  • Mostrar Abstract
  • This thesis investigates privacy-preserving machine learning techniques for socially relevant applications, focusing on two specific areas: the detection and identification of Child Sexual Abuse Media (CSAM) and the generation of synthetic datasets that respect privacy and fairness concerns. We address the challenge of developing machine learning-based solutions for CSAM detection while considering the ethical and legal constraints of using explicit imagery for model training. To circumvent these limitations, we propose a novel framework that leverages file metadata for CSAM identification. Our approach involves training and evaluating deploymentready machine learning models based on file paths, demonstrating its effectiveness on a dataset of over one million file paths collected from actual investigations. Additionally, we assess the robustness of our solution against adversarial attacks and explore the use of differential privacy to protect the model from model inference attacks without sacrificing utility. In the second part of this thesis, we investigate the opportunities and challenges of utilizing synthetic data generation in the context of increasing global privacy regulations. Synthetic data, which mimics real data without replicating personal information, offers various possibilities for data analysis and machine learning tasks. However, little is understood about the impacts of using synthetic data sets in machine learning pipelines, especially when only synthetic data is available for training and evaluation. This study examines the relationship between differential privacy and machine learning fairness, exploring how different synthetic data generation methods affect fairness and comparing the performance of models trained and tested with synthetic data versus real data. The findings contribute to a better understanding of synthetic data usage in machine learning pipelines and its potential to advance research across various fields. As future work, we aim to develop protocols for generation of synthetic data sets from distributed sources with differentially private guarantees, without the need for a trusted dealer. The goal of this approach is to enable data holders to share data without violating legal and ethical restrictions.

3
  • BRUNO MARTINS CALAZANS SILVA
  • DESIGN OF ARBITRARY ORDER DYNAMICAL OUTPUT FEEDBACK PROTOCOLS FOR MULTI-AGENT SYSTEMS OVER DIRECTED COMMUNICATION GRAPHS

  • Orientador : JOAO YOSHIYUKI ISHIHARA
  • MEMBROS DA BANCA :
  • HENRIQUE CEZAR FERREIRA
  • JOAO YOSHIYUKI ISHIHARA
  • JOSE ALFREDO RUIZ VARGAS
  • REINALDO MARTINEZ PALHARES
  • RODRIGO CARDIM
  • Data: 17/07/2024

  • Mostrar Resumo
  • Este trabalho propõe novas condições para controlar sistemas multiagentes homogêneos utilizando protocolos de realimentação dinâmica de saída. Os agentes são descritos por uma dinâmica linear e os gráficos direcionados modelam a rede de comunicação. Primeiramente, novas condições suficientes para projetar protocolos de realimentação dinâmica de saída de ordem arbitrária - incluindo realimentação de saída estática como um caso particular - são propostas para consenso H∞ para agentes sujeitos a distúrbios externos. Os agentes podem ou não sofrer perturbações paramétricas e comunicar-se em topologias politópicas incertas. Finalmente, propomos condições que projetam protocolos para rastreamento de formação de saída variável no tempo. Ao considerar uma representação politópica descrevendo as informações da rede, apresentamos um procedimento que permite o projeto de ganhos de protocolo para uma família de topologias independente do número de agentes. Todas as condições propostas são baseadas em Desigualdades Matriciais Lineares (LMIs, do inglês Linear Matrix Inequalities). Exemplos numéricos ilustram a eficácia da abordagem proposta.


  • Mostrar Abstract
  • This work proposes new conditions for controlling homogeneous multi-agent systems using dynamic output feedback protocols. The agents are described by linear dynamics, and directed graphs model the communication network. First, new sufficient conditions for designing dynamic output feedback protocols of arbitrary order - including static output feedback as a particular case - are proposed for H∞ consensus for agents subject to external disturbances. The agents may experience parametric perturbations and communicate in uncertain polytopic topologies. Finally, we propose conditions that design protocols for time-varying output formation tracking. By considering a polytopic representation describing the network information, we present a procedure that allows the design of protocol gains for a family of topologies regardless of the number of agents. All proposed conditions are based on Linear Matrix Inequalities (LMIs). Numerical examples illustrate the effectiveness of the proposed approach.

4
  • CAIO MULLER SANTOS RIBEIRO
  • Double-Ended Traveling Wave-Based Method for Pole-to-Ground Fault Location on HVDC Transmission Lines

  • Orientador : KLEBER MELO E SILVA
  • MEMBROS DA BANCA :
  • ANESIO DE LELES FERREIRA FILHO
  • FLAVIO BEZERRA COSTA
  • FRANCIS ARODY MORENO VASQUEZ
  • JOSE CARLOS DE MELO VIEIRA JUNIOR
  • KLEBER MELO E SILVA
  • Data: 27/09/2024

  • Mostrar Resumo
  • Nesta tese, propõe-se um método de localização de faltas polo-terra baseado na teoria das ondas viajantes usando dados de dois terminais para linhas de transmissão de alta tensão em corrente contínua. Faltas polo-terra são mais frequentes e críticas do que faltas polo-polo nesse tipo de linha de transmissão. Dessa forma, é crucial localizar com precisão faltas polo-terra para que essas linhas sejam reparadas rapidamente após desligamentos não programados. Ao realizar uma análise da propagação de ondas viajantes lançadas por faltas polo-terra, descobriuse que as ondas refratadas no ponto de falta podem ser detectadas usando um critério baseado em amplitude e polaridade. Com base nessa descoberta, propõe-se um método de localização de faltas polo-terra, livre da necessidade de configurar a velocidade de propagação das ondas viajantes e de meios de sincronização de dados. Foram realizadas simulações de faltas no sistema de alta tensão em corrente contínua do Rio Madeira usando o Alternative Transients Program. A linha de transmissão foi implementada usando o modelo JMarti dependente na frequência e com parâmetros distribuídos. De acordo com resultados, o método mostrou ser preciso, apresentando erros na localização das faltas menores que 0,6 km (0,02% do comprimento da linha de transmissão). Além disso, o método se revelou, realmente, imune à desalinhamentos na sincronização de dados. Além disso, o método se mostrou robusto à diferentes resistências de falta, níveis de ruído, resistividades do solo e frequências de amostragem. Por fim, através de um estudo comparativo, mostrou-se que o método é mais simples, preciso e robusto do que os métodos de localização de faltas baseados em ondas viajantes no estado da arte.


  • Mostrar Abstract
  • This thesis proposes a double-ended method based on traveling waves (TWs) for locating pole-to-ground (PG) faults on high-voltage direct current (HVDC) transmission lines. PG faults are more likely and critical than pole-to-pole (PP) faults on HVDC lines. Hence, accurate PG fault location is important to quickly restore HVDC systems after unscheduled shutdowns. An analysis of the TWs launched by PG faults reveals that refracted TWs can be easily detected at both line ends using an amplitude- and polarity-based criterion. Based on this finding, a double-ended PG fault location method free of TW propagation velocity settings and data synchronization means is proposed. Simulations in the Rio Madeira HVDC system using the Alternative Transients Program (ATP) were carried out. The transmission line was implemented using the distributed parameter frequency-dependent JMarti model. Results show that the method is accurate, presenting errors smaller than 0.6 km (0.02% of the transmission line length). Also, the method is revealed to be immune to data synchronization misalignments, being robust to different fault resistances, noise levels, soil resistivities, and sampling frequencies. Finally, a comparative study shows that the method is more simple, accurate, and robust than the state-of-the-art TW-based fault location (TWFL) methods.

5
  • Vladimir França Nogueira
  • Ethical and Regulatory Dimensions of the Technological Development Process of a Portable Medical Device for Diabetic Foot Treatment: From Bench to Scale Manufacturing

  • Orientador : ADSON FERREIRA DA ROCHA
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • JOAO YOSHIYUKI ISHIHARA
  • FLAVIA MARIA GUERRA DE SOUSA ARANHA OLIVEIRA
  • FÁTIMA MRUÉ
  • TALÍA SIMÕES DOS SANTOS XIMENES
  • Data: 29/11/2024

  • Mostrar Resumo
  • O desenvolvimento de novas tecnologias aplicadas à saúde é complexo, devido a isso a academia, o governo, a sociedade e as empresas têm se empenhado a fim de acelerar a realização da pesquisa básica e a disponibilização de novos produtos para a população. Sabe-se que o sistema regulatório brasileiro para equipamentos médicos envolve questões éticas, técnicas, regulatórias, econômicas e sociais a fim de garantir segurança e condições técnicas mínimas para atender a solução proposta de acordo com indicação de uso de forma eficaz. Nesse sentido, a pesquisa translacional em saúde (PTS) surgiu como um conjunto de ações e atividades com intuito de transferir os resultados encontrados a partir da pesquisa básica até a aprovação da tecnologia para ser disponibilizada aos usuários/pacientes por meio das etapas de translação em que foi considerado os processos regulatórios brasileiros. Objetivo: Desenvolver um arcabouço teórico em relação ao processo da PTS no ecossistema de pesquisa, desenvolvimento e inovação da Universidade Pública do Brasil e do ambiente ético e regulatório associado ao desenvolvimento de novos produtos médicos para o sistema de saúde brasileiro segundo o estudo de caso do equipamento Rapha®. Metodologia: A abordagem é composta por estratégias que inicialmente realizou o levantamento das políticas públicas com incentivo ao desenvolvimento tecnológico de equipamentos médicos pela Universidade Pública a fim de identificar o ecossistema com capacidade de inserção social e benefícios para sociedade. Nesse contexto, foi necessário caracterizar as etapas, os marcadores, as entidades e as políticas da pesquisa translacional relacionada as novas tecnologias em saúde no Brasil para produtos médicos e os aspectos éticos e regulatórios a partir do estudo de caso único do equipamento Rapha®, além do seu grau de maturidade tecnológica. Resultados: A transformação da pesquisa realizada dentro das universidades em produtos assimiláveis na assistência em saúde gerou patentes, transferências tecnológicas que estão vinculados ao processo de inovação. Desse modo, a PTS configura como processo de pesquisa não linear conforme apurado pela análise do estudo de caso do equipamento Rapha®. Entre as dificuldades encontradas foram o processo regulatório e produtivo para transição da fase T3 a T4 a fim de disponibilizar a tecnologia ao mercado brasileiro. Dessa maneira, foi identificada as etapas de tempo T0, T1, T2, T3 como resultados da translação do equipamento Rapha® ao longo do tempo. Conclusão: A PTS apresenta o desenvolvimento científico realizado a fim de possibilitar o acesso à saúde pela população por meio do ambiente de pesquisa, desenvolvimento e inovação da Universidade Pública do Brasil e do ambiente ético e regulatório associado ao desenvolvimento de novos produtos médicos para o sistema de saúde brasileiro.


  • Mostrar Abstract
  • The development of new technologies applied to health is complex, due to this the academy, the government, society and companies have been committed in order to accelerate the achievement of basic research and the availability of new products for the population. It is known that the Brazilian regulatory system for medical equipment involves ethical, technical, regulatory, economic and social issues in order to guarantee safety and minimum technical conditions to meet the proposed solution according to the indication of use effectively. In this sense, translational medical research (TMS) emerged as a set of actions and activities with the aim of transferring the results found from basic research to the approval of the technology to be made available to users/patients through the translation steps in which was considered the Brazilian regulatory processes. Objective: To develop a theoretical framework in relation to the TMS process in the research, development and innovation ecosystem of the Public University of Brazil and the ethical and regulatory environment associated with the development of new medical products for the Brazilian health system according to the case study of Rapha® equipment. Method: The approach is composed of strategies that initially carried out a survey of public policies encouraging the technological development of medical equipment by the Public University in order to identify the ecosystem with the capacity for social inclusion and benefits for society. In this context, it was necessary to characterize the steps, markers, entities and policies of translational research related to new health technologies in Brazil for medical products and the ethical and regulatory aspects based on the single case study of the Rapha® equipment, in addition to their degree of technological maturity. Results: The transformation of research carried out within universities into products that can be assimilated in health care generated patents, technological transfers that are linked to the innovation process. Thus, the TMS configures as a non-linear research process as determined by the analysis of the case study of the Rapha® equipment. Among the difficulties encountered were the regulatory and production process for the transition from phase T3 to T4 in order to make the technology available to the Brazilian market. In this way, the time steps T0, T1, T2, T3 were identified as results of the translation of the Rapha® equipment over time. Conclusion: The TMS presents the scientific development carried out in order to enable access to health by the population through the research, development and innovation environment of the Public University of Brazil and the ethical and regulatory environment associated with the development of new medical products for the system of Brazilian health.

6
  • SUELLEN PAULA DE OLIVEIRA SILVA
  • A New Unit Protection Scheme Applied to Transmission Lines
  • Orientador : KLEBER MELO E SILVA
  • MEMBROS DA BANCA :
  • ANESIO DE LELES FERREIRA FILHO
  • FELIPE VIGOLVINO LOPES
  • FERNANDA CASENO TRINDADE ARIOLI
  • FRANCIS ARODY MORENO VASQUEZ
  • KLEBER MELO E SILVA
  • Data: 06/12/2024

  • Mostrar Resumo
  • O presente projeto de tese propõe um novo algoritmo de proteção unitária para linhas de transmissão imune a resistência de falta. Ele é fundamentado em um plano complexo, cuja característica de restrição é definida como uma circunferência de raio unitário e centro na origem. Para tanto, o algoritmo calcula para cada tipo de falta o coeficiente HL para o terminal local e HR para o terminal remoto da linha de transmissão, que são plotado no plano de restrição proposto, possibilitando a identificação do curto-circuito caso algum deles esteja fora da zona de restrição. Para validar o seu desempenho, empregou-se o software Alternative Transients Program para simular a operação da linha de transmissão quando submetida às diversas condições de operação. As simulações realizadas foram divididas em análises transitórias – nas quais avalia-se o comportamento da proteção durante situações de curto-circuito – e análises de sensibilidade paramétrica, nas quais investiga-se a influência de cada um dos parâmetros envolvidos no curto-circuito durante o regime permanente de falta. Os resultados obtidos revelam que o algoritmo proposto provê uma alternativa apropriada, eficiente e segura para proteção de linhas de transmissão


  • Mostrar Abstract
  • This thesis project proposes a new unitary protection algorithm for transmission lines that are immune to fault resistance. It is based on a complex plane, whose constraint characteristic is defined as a circumference of unit radius and center at the origin. For this purpose, the algorithm calculates for each type of fault the coefficient HL for the local terminal and HR for the remote terminal of the transmission line, which are plotted on the proposed restriction plan, enabling the identification of the short circuit in case any of them are outside the restriction zone. To validate its performance, the software emph Alternative Transients Program was used to simulate the operation of the transmission line when subjected to different operating conditions. The simulations performed were divided into transient analyzes - in which protection behavior is evaluated during short-circuit situations - and parametric sensitivity analyzes, in which the influence of each of the parameters involved in the short circuit is investigated. during the permanent absence regime. The results obtained reveal that the proposed algorithm provides an appropriate, efficient and safe alternative for the protection of transmission lines

7
  • Alisson Lima Silva
  • Métodos Numéricos Baseados em Homotopia para a Solução do Problema de Fluxo de Carga em Modelos de Sistemas de Potência de Grande Escala e Mal Condicionados.

  • Orientador : FRANCISCO DAMASCENO FREITAS
  • MEMBROS DA BANCA :
  • KLEBER MELO E SILVA
  • FERNANDO CARDOSO MELO
  • FRANCIS ARODY MORENO VASQUEZ
  • FERNANDO AUGUSTO MOREIRA
  • JOÃO ALBERTO PASSOS FILHO
  • Data: 16/12/2024

  • Mostrar Resumo
  • Nesta proposta de tese de doutorado, apresenta-se um estudo sobre solucionadores de fluxo de carga para sistemas mal condicionados. A ideia proposta é baseada em uma técnica hibrida facilitada por conceitos de homotopia para solucionar o Problema do Fluxo de Carga (PFC) em sistemas mal condicionados, ou seja, onde o método de Newton-Raphson (NR) padrão não converge partindo de uma estimativa flat start. O método usa conceitos de homotopia dinâmica para iniciar as iterações por meio de um esquema de integração para obter inicialmente uma estimativa de tensão de baixa precisão. Então, com essa estimativa inicial mais próxima da solução, o método de NR refina o resultado para obter uma aproximação de alta precisão com menor que erro de 1 × 10−8. O método foi testado para sistemas teste de grandes dimensões, incluindo os sistemas com 70.000 e 109.272 barras, obtendo soluções de alta precisão.

    Posteriormente a esse trabalho, pretende-se dar continuidade nos solucionadores basedo em homopia aplicados a sistemas com mais de uma barra de referência e considerando os limites dos equipamentos, para, então, apresentar a tese em dezembro.


  • Mostrar Abstract
  • This doctoral thesis proposal presents a study on load flow solvers for poorly conditioned systems. The proposed idea is based on a hybrid technique facilitated by homotopy concepts to solve the Load Flow Problem (PFP) in ill-conditioned systems, where the standard Newton-Raphson (NR) method does not converge starting from a flat start estimate. The method uses transient-based dynamic homotopy concepts to initiate iterations through an integration scheme to obtain a low-precision voltage estimate. Then, with this initial estimate closest to the solution, the NR method refines the result to obtain a high-precision approximation with an error of 1 × 10−8. The method was tested for large-scale test systems, including 70,000 and 109k buses, and a high-precision solution was obtained. After this work, we intend to continue with homotopy-based solvers applied to systems with more than one slack bus while considering equipment limits and then present the thesis in December.

     

     

8
  • Nilo Sérgio Soares Ribeiro
  • A New Algorithm to Speed Up Transmission Lines Differential Protection

  • Orientador : KLEBER MELO E SILVA
  • MEMBROS DA BANCA :
  • ALBERTO RESENDE DE CONTI
  • ANESIO DE LELES FERREIRA FILHO
  • DENIS VINICIUS COURY
  • FRANCIS ARODY MORENO VASQUEZ
  • KLEBER MELO E SILVA
  • Data: 19/12/2024

  • Mostrar Resumo
  • Este trabalho apresenta uma estratégia para acelerar a atuação da proteção diferencial de linhas de transmissão. A estratégia proposta envolve o uso de correntes terminais instantâneas e tensões terminais memorizadas para calcular as potências de operação e restrição para cada terminal da linha de transmissão. O desempenho do esquema proposto foi avaliado por meio de simulações computacionais utilizando o EMTP-ATP, conduzidas em um sistema de teste de transmissão simplificado, composto por uma linha de transmissão de 500 kV. Foram examinados vários cenários, incorporando diferentes tipos de faltas aplicadas, resistências de falha variáveis, ângulo de incidência de falta, força da fonte e pontos de aplicação de falta ao longo do comprimento da linha de transmissão. Os resultados das simulações demonstram o excelente desempenho do esquema proposto na detecção e resposta a faltas de alta e baixa impedância. Além disso, o método exibe alta sensibilidade na identificação de faltas internas, mantendo a seletividade na detecção de defeitos externos. Essa abordagem pode tornar a atuação da proteção mais rápido e eficiente, garantindo uma operação confiável e uma melhor proteção das linhas de transmissão.


  • Mostrar Abstract
  • This work presents a strategy to enhance the speed of differential transmission lines protection trip. The proposed strategy involves using instantaneous terminal currents and memorized terminal voltages to compute operating and restraint power quantities for each transmission line terminal. The performance of the proposed scheme was assessed through computer simulations using EMTP-ATP, conducted on a simplified test transmission system, which comprised a 500 kV transmission line. Multiple scenarios were examined, incorporating different types of applied faults, varying fault resistances, the fault inception angle, Source Impedance Ratio (SIR), and fault application points along the transmission line. The results of the simulations demonstrate the proposed scheme’s excellent performance in detecting and responding to high and low-impedance faults. Additionally, the method exhibits high sensitivity in identifying internal faults while maintaining selectivity in detecting external faults. This approach can make the protection trip faster and more efficient, ensuring reliable operation and better safeguarding of the transmission lines.

9
  • Laice Neves de Oliveira
  • Investigation of Perturbation Approaches in the Solution of Ill-conditioned Large-scale Power Flow Problems

  • Orientador : FRANCISCO DAMASCENO FREITAS
  • MEMBROS DA BANCA :
  • FERNANDO CARDOSO MELO
  • FRANCIS ARODY MORENO VASQUEZ
  • KLEBER MELO E SILVA
  • ROBSON CELSO PIRES
  • RODRIGO ANDRADE RAMOS
  • Data: 20/12/2024

  • Mostrar Resumo
  • Esta proposta de tese de doutorado apresenta abordagens para calcular a solução do Problema de Fluxo de Potência (PFP) envolvendo sistemas mal-condicionados e de grande porte.
    A estratégia baseia-se em aplicar uma etapa de condicionamento à estimativa inicial usada nos métodos iterativos. Essa etapa consiste em modificar a estimativa inicial do método iterativo através de um processo que envolve a matriz Jacobiana e o mismatch das equações de balanço, ambas calculadas para a estimativa inicial. A matriz Jacobiana é então usada para formar um sistema linear cuja matriz perturbada resulta em um melhor número de condição. A segunda abordagem de perturbação proposta baseia-se na análise modal e demonstra que a causa primária do problema de mau condicionamento está associada ao autovalor de menor magnitude da
    primeira iteração da matriz Jacobiana. Deste modo, é proposto um procedimento para contornar este problema afastando de zero o autovalor de menor magnitude da matriz Jacobiana. Por fim, a última abordagem proposta baseia-se em um método híbrido para calcular a solução PFP que é composto por duas etapas. A primeira consiste em calcular uma solução parcial da PFP a partir de uma estimativa flat start. Os cálculos são realizados por uma técnica de homotopia. Os estados computados nesta primeira etapa são utilizados na segunda como estimativa para um método iterativo, que determina a solução precisa e final do PFP. As técnicas propostas foram investigadas considerando o método NR clássico, o método Heun-King-Werner (HKW) e algumas variantes. O desempenho das abordagens propostas é avaliado para uma variedade de sistemas-teste, incluindo um sistema de 70.000 barras. Os resultados obtidos demonstraram que os métodos investigados conseguiram melhorar significativamente o processo de convergência das técnicas iterativas usadas para resolver PFPs mal-condicionados e de grande porte, incluindo o método clássico de Newton-Raphson.


  • Mostrar Abstract
  • This PhD thesis proposal presents approaches to calculate the solution to the Power Flow
    Problem (PFP) involving ill-conditioned and large systems. The strategy is based on applying
    a conditioning step to the initial estimate used in iterative methods. This step consists of
    modifying the initial estimate of the iterative method through a process that involves the Jacobian
    matrix and the mismatch of the balance equations, both calculated for the initial estimate.
    The Jacobian matrix is then used to form a linear system whose perturbed matrix results in a
    better condition number. Another perturbation approach proposed in this work based on modal
    analysis demonstrates that the primary cause of the ill-conditioning problem is associated
    with the smallest magnitude eigenvalue of the Jacobian matrix’s first iteration. In addition,
    it is proposed a procedure to circumvent this problem by shifting away from zero the smallest
    magnitude eigenvalue of the Jacobian matrix. Finally, the last proposed approach is based on a
    hybrid method to calculate the PFP solution that is composed of two steps. The first consists
    of calculating a partial solution of the PFP based on an estimate flat start. Calculations are
    performed using a homotopy technique. The states computed in this first step are used in the
    second as estimates for an iterative method, which determines the precise and final solution of
    the PFP. The proposed techniques were investigated considering the classical NR method, the
    Heun-King-Werner (HKW) method and some variants. The performance of the proposed approaches
    is evaluated for a variety of test systems, including a 70,000 bus system. The results
    obtained demonstrated that the investigated methods were able to significantly improve the
    convergence process of the iterative techniques used to solve large and ill-conditioned PFPs,
    including the classical Newton-Raphson method.
    Keywords:

10
  • Eduardo Passos Aquino Ribeiro
  • A Novel Approach for Traveling Wave-Based Fault Location Methods Using Low Sampling Rate Data 

  • Orientador : KLEBER MELO E SILVA
  • MEMBROS DA BANCA :
  • ALBERTO RESENDE DE CONTI
  • ANESIO DE LELES FERREIRA FILHO
  • FRANCIS ARODY MORENO VASQUEZ
  • KLEBER MELO E SILVA
  • PAULO MARCIO DA SILVEIRA
  • Data: 20/12/2024

  • Mostrar Resumo
  • Esta tese de doutorado apresenta uma solução baseada em interpolação que permite a aplicação do algoritmo de localização de faltas duplas baseado em ondas viajantes (TW), mesmo usando amostragem taxas inferiores às normalmente consideradas como um requisito para abordagens clássicas. Dois Métodos de localização de faltas baseados em fasores (PH) e um baseado em TW são comparados com o proposto técnica e aplicada através de simulações de falhas do Programa de Transientes Alternativos (ATP) em um Linhas de transmissão brasileiras de circuito duplo compensadas em série de 500 kV/60 Hz com alta tensão linhas de corrente contínua (HVDCs) e compensadores estáticos de var (SVCs) nas proximidades. Os resultados mostram que a técnica baseada em interpolação proposta é confiável e adequada para aplicações baseadas em TW localização de faltas usando registros de dados com taxas de amostragem inferiores às usadas comercialmente equipamentos disponíveis. Além disso, sua precisão é comparável à clássica localização de faltas baseada em TW. soluções, revelando sua utilidade para aplicação prática quando apenas falhas digitais tradicionais gravadores (DFRs) estão disponíveis.


  • Mostrar Abstract
  • This doctoral thesis presents an interpolation-based solution that allows the application of the traveling wave (TW)-based double-ended fault location algorithm even using sampling rates lower than those typically considered as a requirement for classical approaches. Two phasor (PH)-based and one TW-based fault location methods are compared with the proposed technique and applied through Alternative Transients Program (ATP) fault simulations in a 500 kV/60 Hz Brazilian double circuit series-compensated transmission lines with high-voltage direct current lines (HVDCs) and static var compensators (SVCs) in the vicinity. The results show that the proposed interpolation-based technique is reliable and suitable for TW-based fault location using data records with sampling rates lower than those used in commercially available equipment. Moreover, its accuracy is comparable to classical TW-based fault location solutions, revealing its usefulness for practical application when only traditional digital fault recorders (DFRs) are available.

2023
Dissertações
1
  • Daniele Dias Sousa
  • Métodos para Reconstrução de Imagens Hiperespectrais para a Costa Brasileira Baseados em Compressive Sensing

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • HUGERLES SALES SILVA
  • LEONARDO AGUAYO
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • UGO SILVA DIAS
  • Data: 31/01/2023

  • Mostrar Resumo
  • A imagem hiperespectral surgiu como uma nova geração de tecnologia para observação da Terra e exploração espacial desde o início deste milênio e amplamente utilizada em várias disciplinas e aplicações. A informação espectral detalhada é adquirida por imageadores hiperespectrais, nos quais, geralmente produzem resultados impossíveis de serem obtidos com imagens multiespectrais ou outros tipos de satélites. Muitas técnicas para análise de qualidade dos dados foram desenvolvidas ao longo dos anos, e adaptadas para imagens hiperespectrais de acordo com o objetivo, como o NDVI e o NDWI. A grande limitação deste tipo de tecnologia é o armazenamento dos dados devido a limitação de peso que satélites possuem. Desta forma, técnicas de compressão passaram-se a ser utilizadas, como o \textit{Compressive Sensing} (CS) criado para imageamento médico, gerando imagens com alta qualidade a partir de linhas radiais no espaço-$k$ mesmo quando a relação de Shannon-Nyquist não é obtida. Assim, este trabalho combinou a técnica de CS com a de análise de qualidade para reconstruir imagens hiperespectrais da costa brasileira, a partir de estimação de dados no domínio de Fourier e quantificar a qualidade do dado a partir dos dados reais, obtidos pelo satélite PRISMA. Os resultados obtidos apresentam tanto a relação sinal-ruído da reconstrução, onde há uma variação entre 45~dB e 330~dB comparados a imagem original e que mesmo em imagens o valor de números de radias abaixo do ideal, é visível a ênfase de informação de acordo com o NDWI. Estes resultados sugerem que \textit{Compressive Sensing} com pré-filtragem permite uma melhora em relação à técnica de pré-filtragem para imageamento hiperespectral, analogamente à melhora observada nos últimos anos em problemas de imageamento médico.


  • Mostrar Abstract
  • Hyperspectral imaging has emerged as a new generation of technology for Earth observation and space exploration since the beginning of this millennium and widely used in various disciplines and applications. Detailed spectral information is acquired by hyperspectral imagers, which generally produce results that are impossible to obtain with multispectral images or other types of satellites. Many techniques for data quality analysis have been developed over the years, and adapted for hyperspectral imaging according to the objective, such as NDVI and NDWI. The great limitation of this type of technology is the storage of data due to the weight limitation that satellites have. In this way, compression techniques started to be used, such as \textit{Compressive Sensing} (CS) created for medical imaging, generating high quality images from radial lines in $k$-space even when the ratio of Shannon-Nyquist is not obtainable. Thus, this work combined the CS technique with quality analysis to reconstruct hyperspectral images of the Brazilian coast, based on data estimation in the Fourier domain and to quantify data quality based on real data obtained by the PRISMA satellite. The results obtained show both the signal-to-noise ratio of the reconstruction, where there is a variation between 45~dB and 330~dB compared to the original image and that even in images the value of radiant numbers below the ideal, the emphasis of information is visible according to the NDWI. These results suggest that \textit{Compressive Sensing} with prefiltering allows an improvement over the prefiltering technique for hyperspectral imaging, similarly to the improvement observed in recent years in medical imaging problems.

2
  • JOAO PAULO CARNEIRO RODRIGUES
  • Estudo de Viabilidade Técnico-econômica da Usina Fotovoltaica da Faculdade de Tecnologia na Universidade de Brasília

  • Orientador : FERNANDO CARDOSO MELO
  • MEMBROS DA BANCA :
  • FERNANDO CARDOSO MELO
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FRANCIS ARODY MORENO VASQUEZ
  • ARTHUR COSTA DE SOUZA
  • Data: 26/05/2023

  • Mostrar Resumo
  • Atualmente, impõe-se preocupante cenário global a respeito do meio ambiente, haja vista que, antes tidos como infinitos ou abundantes, os recursos disponibilizados por ele estão cada vez mais escassos. Nesta seara, ganham destaque os sistemas fotovoltaicos, capazes de produzir energia elétrica a partir do Sol, fonte renovável e sustentável de energia. Neste contexto, encontra-se este trabalho acadêmico, de forma a contribuir com a sociedade, ao se realizar ampla análise técnico-econômica de um sistema fotovoltaico instalado em destacada instituição pública de ensino superior, em consonância com os índices utilizados pela literatura atual, bem como em comparação com outros sistemas similares. Trata-se de sistema inaugurado em 2019, composto por 450 módulos fotovoltaicos, com potência nominal de 150kWp, instalado na Faculdade de Tecnologia da Universidade de Brasília. Em acréscimo, é realizada uma simulação computacional desta usina, por meio do software System Advisor Model – SAM, a fim de se verificar o desempenho teórico do sistema e comparálo com o desempenho real aferido, avaliando-se discrepâncias sob a óptica da análise de fontes de danos e perdas, seja por externalidades, seja por outras questões técnicas. Ademais, avaliam-se, ainda, os parâmetros de qualidade de energia elétrica apresentados por esse sistema, medidos in loco, à luz dos requisitos estabelecidos pelos normativos vigentes. Por derradeiro, considerando as variáveis técnicas e econômicas que norteiam a área de energia solar fotovoltaica, é proposto Plano de Manutenção, Operação e Controle – PMOC, a ser aplicado a estes sistemas, de forma a se colaborar com rotinas de manutenção preditiva e preventiva que permitam a previsão e a identificação de falhas, em tempo adequado para a devida atuação tempestiva.


  • Mostrar Abstract
  • Currently, there is a worrying global scenario regarding the environment, because, previously considered infinite, the avaliable resources are increasingly scarce. In this area, photovoltaic systems stand out, capable of producing electrical energy from the Sun, a renewable and sustainable source of energy. In this context, this academic work is found, in order to contribute to today’s society, by carrying out a broad technical-economic analysis of a photovoltaic system installed in a prominent public institution of education, in line with the indices used in the current literature, as well as comparing it with other similar systems. It is a system inaugurated in 2019, consisting of 450 photovoltaic modules, with a nominal power of 150kWp, installed at the Faculty of Technology of the University of Brasília. In addition, a computational simulation of this plant is carried out, using the System Advisor Model - SAM software, in order to verify the theoretical performance of the system, and compare it with the actual performance measured, evaluating discrepancies from the perspective of the analysis of sources of damage and loss, whether due to externalities or other technical issues. In addition, the parameters of quality of electric energy presented by this system, measured in the place of the installation, in accordance with the requirements established by the current regulations. Lastly, considering the technical and economic variables that guide the area of photovoltaic solar energy, a Maintenance, Operation and Control Plan is proposed, to be applied to these systems, in order to collaborate with predictive and preventive maintenance routines that allow the prediction and identification of failures in adequate time for due action.

3
  • Ivo José de Oliveira
  • ESTUDO SOBRE O PROCESSO DE AQUECIMENTO DA MÃO DIREITA DE VIOLONISTAS

  • Orientador : ADSON FERREIRA DA ROCHA
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • ALEXANDRE RICARDO SOARES ROMARIZ
  • FLAVIA MARIA GUERRA DE SOUSA ARANHA OLIVEIRA
  • MAXWELL DIOGENES BANDEIRA DE MELO
  • Data: 28/06/2023

  • Mostrar Resumo
  • Exercícios de aquecimento são comumente realizados por violonistas acústicos para preparar os músculos envolvidos na execução do instrumento. No entanto, circunstâncias estressantes podem levar a um aquecimento ineficaz ou mesmo ao resfriamento dos dedos, o que pode resultar em redução do desempenho. O objetivo deste estudo foi comparar a eficácia de duas técnicas de aquecimento - uma vigorosa, empregando "com apoio" na pisada das cordas, e uma nova proposta leve, usando "sem apoio" na pisada das cordas, - em violonistas acústicos durante situações estressantes. Nove violonistas acústicos do sexo masculino (idade média: 27,2 anos, experiência média de tocar: 10,0 anos) foram submetidos a uma versão adaptada do teste do pressor frio, que induziu respostas fisiológicas ao estresse imitando o estresse do desempenho, antes de executar cada uma das duas rotinas. A eficácia das duas técnicas de aquecimento foi comparada monitorando a temperatura da mão usando uma câmera infravermelha antes e durante cada exercício por seis minutos. O estudo constatou que a técnica de aquecimento leve foi significativamente mais eficaz (p = 0,002816, tamanho do efeito = 103 1,42) em aumentar o aquecimento das mãos do que a técnica de aquecimento vigorosa (p = 104 0,3417, tamanho do efeito = 0,34). Os resultados deste estudo fornecem novas informações que podem ser usadas para melhorar o desempenho de violonistas acústicos e podem levar a pesquisas adicionais sobre técnicas para aprimorar a execução do violão acústico. As limitações do estudo incluem o pequeno tamanho da amostra e o foco apenas nos participantes do sexo masculino. Pesquisas futuras podem investigar os mecanismos subjacentes e as possíveis aplicações da técnica de aquecimento leve para o ensino e a prática de tocar violão.


  • Mostrar Abstract
  • Warm-up exercises are commonly performed by acoustic guitarists to prepare the muscles involved in playing the instrument. However, stressful circumstances can lead to ineffective warming up or even cooling down of the fingers, which can result in reduced  performance. The objective of this study was to compare the effectiveness of two warming-up techniques - a vigorous one, employing "support" in the string fretting, and a new light proposal,  using "no support" in the string fretting - in acoustic guitarists during stressful situations. Nine male acoustic guitarists (average age: 27.2 years, average playing experience: 10.0 years) were  subjected to an adapted version of the cold pressor test, which induced physiological stress responses mimicking performance stress, before performing each of the two routines. The effectiveness of the two warming-up techniques was compared by monitoring hand temperature using an infrared camera before and during each exercise for six minutes. The study found that  the light warming-up technique was significantly more effective (p = 0.002816, effect size = 135 1.42) in increasing hand warming than the vigorous warming-up technique (p = 0.3417, effect 136 size = 0.34). The results of this study provide new information that can be used to improve the performance of acoustic guitarists and may lead to further research on techniques to enhance acoustic guitar playing. The limitations of the study include the small sample size and the focus  only on male participants. Future research could investigate the underlying mechanisms and possible applications of the light warming-up technique for teaching and practicing guitar playing

4
  • Caio Missiaggia Moraes
  • MODAL PARAMETERS AND FAULT TRANSIENTS IN DOUBLE-CIRCUIT TRANSMISSION LINES: ON THE EFFECTS OF CONDUCTOR TRANSPOSITION, SHIELD WIRES, AND LOSSY SOIL MODELING

  • Orientador : AMAURI GUTIERREZ MARTINS BRITTO
  • MEMBROS DA BANCA :
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FRANCIS ARODY MORENO VASQUEZ
  • FRANCISCO DAMASCENO FREITAS
  • EDUARDO COELHO MARQUES DA COSTA
  • Data: 28/06/2023

  • Mostrar Resumo
  • Este trabalho analisa o impacto da transposição de condutores, cabos para-raio e modelagem do solo nos parâmetros modais de uma linha de transmissão em circuito duplo. Foram desenvolvidas rotinas de modelagem computacional para representar os parâmetros modais da linha de transmissão, considerando a variação dos parâmetros ao longo da faixa de servidão. O modelo circuital é construído usando software do tipo EMTP, sendo consideradas as impedâncias e admitâncias calculadas para levar em conta os efeitos de corrente condutiva e de dispersão em solos variantes na frequência. Foram realizados estudos transitórios em uma linha de transmissão real de 500 kV em duplo circuito, considerando diversos cenários de resistividade do solo, transposição e modelagem do cabos para-raio. As faltas foram aplicadas a cada 1% da linha de transmissão, o que representa 100 faltas por cenário. Os resultados mostram que um único valor de resistividade sendo a média das resistividades da camada profunda representa com precisão a distribuição heterogênea de resistividade ao longo da linha, com uma discrepância inferior a 1%. Os esquemas de transposição que giram as fases dos circuitos em direções opostas resultam em correntes de curto-circuito mais baixas, melhorando a segurança do sistema de transmissão. O uso da redução de Kron, como é tradicionalmente realizada nos cálculos dos parâmetros da linha, produz resultados conservadores em comparação com o modelo modal-descomposto realista, com a superestimação das correntes do ramo de falta e das correntes de contribuição de curto-circuito em 0,9 p.u. (600 A). As correntes nos cabos para-raios podem atingir até 1,8 kA, destacando a importância de sua modelagem na linha de transmissão.


  • Mostrar Abstract
  • This work analyzes the impact of conductor transposition, shield wires, and soil modeling on modal parameters of a double-circuit transmission line. Computational modeling routines are developed to represent transmission line parameters span by span, capturing parameter variation along the right-of-way. The circuit model is constructed using EMTP-type software, considering impedances and admittances calculated to account for conductive and displacement current eects on lossy earth. Transient studies are performed on a real 500 kV double-circuit transmission line, considering various scenarios of soil resistivity, transposition and shield wire modeling. Faults are applied at every 1% of the power line, which represents 100 faults per scenario. Results shows that a single average of deep-layer resistivity accurately represents heterogeneous resistivity distribution along the line, with less than 1% discrepancy. Transposition schemes rotating phases in opposite directions result in lower short-circuit currents, improving safety. The use of Kron reduction, as traditionally performed in line parameters calculations, yields conservative results in comparison with the realistic modal-decomposed model, overestimating fault branch currents and short-circuit contribution currents by 0.9 p.u. (600 A). Shield wire currents can reach up to 1.8 kA, highlighting their signicance in transmission line modeling.

5
  • Marcos Paulo Caballero Victorio
  • Modelagem e Simulação do Sistema de Controle de uma Microrrede de Corrente Alternada Integrando Sistemas Fotovoltaicos e Armazenamento de Energia

  • Orientador : FERNANDO CARDOSO MELO
  • MEMBROS DA BANCA :
  • FERNANDO CARDOSO MELO
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FRANCIS ARODY MORENO VASQUEZ
  • CAMILA SEIBEL GEHRKE
  • Data: 29/06/2023

  • Mostrar Resumo
  • Na última década, a busca pela sustentabilidade e pela redução da emissão de gases causadores do efeito estufa tem levado muitos países a aumentarem significativamente o uso de fontes renováveis de energia. Seguindo essa tendência mundial, entre 2012 e 2022, o Brasil aumentou expressivamente sua capacidade instalada de energia eólica e solar, a primeira de 1,89GW para 21,5GW, e a segunda de 6,61MW para 22,3GW. Nesse contexto, algumas regulamentações importantes foram recentemente promulgadas, a exemplo da Lei nº 14.300, de 6 de janeiro de 2022, que instituiu o marco legal da micro e minigeração distribuída, bem como permitiu que os consumidores produzam a própria energia a partir de fontes renováveis e criou o Sistema de Compensação de Energia Elétrica e o Programa de Energia Renovável Social. Também, há a Portaria nº 140/2022, do INMETRO, que representou um grande avanço para o setor elétrico, permitindo o uso de inversores híbridos de até 75kW. Ademais, em 2020, a COPEL lançou um projeto piloto que visa a compra de energia de geradores conectados ao sistema de distribuição, desde que atendam ao requisito de constituir uma microrrede. Com a evolução dos regulamentos e das tecnologias, espera-se que o uso de microrredes se torne cada vez mais comum e acessível no Brasil. Por isso, este trabalho realizou o estudo da modelagem dos componentes e dos controles necessários para o correto funcionamento de uma microrrede capaz de operar conectada à rede ou ilhada, validando as modelagens por meio de simulações computacionais no software Simulink®. A microrrede implementada é trifásica a quatro fios, com sistemas fotovoltaicos de dois estágios e bancos de baterias. No estágio CC-CC do sistema fotovoltaico, foi utilizado um conversor Boost com o algoritmo de MPPT da Condutância Incremental. Para o estágio CCCA, utilizou-se um inversor NPC de três níveis com a modulação Space Vector. Para controlar o fluxo de potência dos bancos de baterias, foi utilizado um conversor Buck-Boost bidirecional. Por fim, também foram implementados os seguintes controles: redução do desequilíbrio de tensão dos capacitores do barramento CC, redução do desequilíbrio de tensão no lado CA, limitação da potência dos módulos fotovoltaicos, detecção de ilhamento, sincronismo para a reconexão, controles secundários de tensão, de frequência e de potência ativa, e gerenciamento de energia.


  • Mostrar Abstract
  • In the last decade, the search for sustainability and the reduction of greenhouse gas emissions has led many countries to significantly increase the use of renewable energy sources. Following this global trend, between 2012 and 2022, Brazil significantly increased its installed capacity of wind and solar energy, the former from 1.89 GW to 21.5 GW, and the latter from 6.61 MW to 22.3 GW. In this context, some important regulations have recently been enacted, such as Law No. 14,300 of January 6, 2022, which established the legal framework for micro and mini distributed generation, allowed consumers to produce their own energy from renewable sources, and created the Energy Compensation System and the Social Renewable Energy Program. Also, there is Ordinance No. 140/2022, from INMETRO, which represented a major breakthrough for the electricity sector, allowing the use of hybrid inverters of up to 75 kW. Furthermore, in 2020, COPEL launched a pilot project aimed at purchasing energy from generators connected to the distribution system, provided they meet the requirement of constituting a microgrid. With the evolution of regulations and technologies, it is expected that the use of microgrids will become increasingly common and accessible in Brazil. Therefore, this work carried out the study of modeling the components and controls necessary for the correct operation of a microgrid capable of operating connected to or islanded from the grid, validating the models through computer simulations in the Simulink® software. The implemented microgrid is three-phase four-wire, with two-stage photovoltaic systems and battery banks. In the CC-CC stage of the photovoltaic system, a Boost converter with the Incremental Conductance MPPT algorithm was used. For the CC-CA stage, a three-level NPC inverter with Space Vector modulation was used. To control the power flow of the battery banks, a bidirectional Buck-Boost converter was used. Finally, the following controls were also implemented: reduction of voltage unbalance of the CC bus capacitors, reduction of voltage unbalance on the AC side, limitation of the power of the photovoltaic modules, detection of islanding, synchronization for reconnection, secondary voltage, frequency, and active power controls, and energy management.

6
  • Gabriel de Castro Araújo
  • 360EAVP: The Edition-Aware 360-degree Video Player.

  • Orientador : MARCELO MENEZES DE CARVALHO
  • MEMBROS DA BANCA :
  • MARCELO MENEZES DE CARVALHO
  • PAULO ROBERTO DE LIRA GONDIM
  • PEDRO GARCIA FREITAS
  • DEBORA CHRISTINA MUCHALUAT SAADE
  • Data: 27/07/2023

  • Mostrar Resumo
  • Comparados aos vídeos tradicionais, que estão sendo estudados a mais de um século, vídeos em 360 graus (vídeos omnidirecionais) representam um tipo de mídia relativamente novo. A exploração da criação de vídeos mais complexos com narrativas no formato de 360 graus ainda está em andamento. No entanto, devido às características únicas dos vídeos em 360 graus, os cineástas ainda estão estabelecendo sua própria identidade e métodos para contar narrativas complexas. Nesses casos, eles enfrentam o desafio de direcionar a atenção dos usuários para as principais cenas e garantir que a mensagem pretendida não seja perdida, sem a capacidade de contar com as técnicas de edição tradicionais devido à falta do controle da câmera.
    Para enfrentar esse problema, este trabalho apresenta o 360EAVP, uma aplicação de código aberto para navegadores web para transmissão e visualização em "Head-mounted Displays" (HMDs) de vídeos em 360 graus editados. A plataforma permite direcionar a atenção dos usuários para as principais cenas-chave, estando ciente dessas cenas antes do início do vídeo. Este trabalho apresenta as principais características introduzidas pelo 360EAVP, que são: 1) operação em HMDs com base no viewport do usuário em tempo real; 2) edição dinâmica por meio das técnicas de snap-change ou fade-rotation combinadas com "piscar dos olhos"; 3) avaliação da visibilidade do viewport do usuário em relação à projeção cúbica do player (para fins de solicitações de segmentos); 4) incorporação das informações das edições na operação do algoritmo ABR; 5) módulo de previsão do viewport do usuário com base em algoritmos de regressão de ridge ou linear; e 6) coleta de dados durante a reprodução do vídeo. A aplicação introduzida pode ser usada para apoiar pesquisas em diversos temas, como otimização da transmissão de vídeo em 360 graus editado com base em segmentos, experimentos psicofísicos, geração de base de dados, desenvolvimento de algoritmos ABR, etc. Para avaliar as capacidades da plataforma, foram realizados experimentos como prova de conceito para exemplificar como as técnicas de edição impactam a experiência do usuário e a transmissão do vídeo.

  • Mostrar Abstract
  • Compared to traditional videos (2D), which have been studied for over a century, 360-degree videos (omnidirectional videos) represent a relatively new type of media. The exploration of creating more complex videos with storytelling in the 360-degree format is still ongoing. However, due to the fact that 360-degree videos have their own unique characteristics, filmmakers are still establishing their own identity and methods for telling complex narratives. In such cases, they face the challenge of guiding users' attention towards key scenes and ensuring that the intended message is not missed, without the ability to rely on traditional editing techniques due to their lack of control over the camera.
    To address this problem, this work introduces 360EAVP, an open-source Web browser-based application for streaming and visualization of 360-degree edited videos on head-mounted displays (HMD). The platform enables guiding users' attention to the main key scenes, being aware of these scenes before the video starts. This work explains the main features introduced by 360EAVP, which are: 1) operation on HMDs based on real-time user's viewport; 2) dynamic editing via ``snap-change'' or ``fade-rotation'' combined with ``blinking''; 3) visibility evaluation of user's Field of View with respect to the player's cubic projection (for purposes of tile requests); 4) incorporation of editing timing information into the operation of the ABR algorithm; 5) viewport prediction module based on either linear regression or ridge regression algorithms; and 6) data collection and log module during video playback. The introduced application can be freely used to support research on many topics such as optimization of tile-based 360-degree edited video streaming, psycho-physical experiments, dataset generation, and ABR algorithm development, to name a few. To evaluate the platform capabilities, some proof of concept experiments were made to show how editing techniques can impact the user's experience and the video streaming.
7
  • HELTON ALVES DE AZEVEDO
  • Reconstrução de Campos Eletromagnéticos  Utilizando Regularização de  Tikhonov-Phillips e Inteligência Artificial

  • Orientador : SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • MEMBROS DA BANCA :
  • ADONIRAN JUDSON DE BARROS BRAGA
  • DANIEL ORQUIZA DE CARVALHO
  • GEFESON MENDES PACHECO
  • SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • Data: 28/11/2023

  • Mostrar Resumo
  • A caracterização experimental de antenas vem ao longo dos anos tornando-se um importante campo de estudo do eletromagnetismo aplicado. Isso fica mais evidente devido ao fato que o projeto de elementos irradiantes estão cada vez mais complexos devido ao significante aumento das demandas eletrônicas, influência do ambiente circundante, especificações de operação e banda e funcionalidades adicionais aumentam a ainda mais a necessidade de investigações e estudos mais profundos dos elementos radiantes. No entanto, apesar do fato de tal área ter uma vasta quantidade de estudos conduzidos, ela ainda possui desafios. O problema de reconstrução do campo magnético por caracterização pode ser considerado como NP-difícil e não convexo, e quantidade de dados e as estratégias de aquisição de dados possuem um grande impacto no sucesso final do processo. Neste contexto, esse trabalho possui como objetivo apresentar novas estratégias de reconstrução do campo eletromagnético utilizado estratégias interpoladas baseadas na regularização de Thikonov-Philips, que otimizada as posições de amostragem paralelo-equatorial do campo, em que o número de condicionamento é métrica utilizada para atingir tal objetivo. Tal estratégia permite a reconstrução do campo eletromagnético com dados faltantes, em que os efeitos de Gibbs nos limites da janela utilizada são praticamente desprezíveis. Além disso, uma nova abordagem de reconstrução do campo eletromagnético baseado na resolução do problema de recuperação de fase utilizando inteligência artificial também é apresentada, permitindo obter o campo eletromagnético irradiado em uma determinada esfera usando apenas os dados de amplitude e suas posições angulares. Para a primeira técnica, os resultados foram comparados com medições, e o processo de interpolação é computacionalmente eficiente e mostrou-se extremamente relevante para aplicações em que a quantidade de dados é limitada e é contaminado por ruído de maneira considerável. Todos esses resultados foram obtidos de maneira estatisticamente sólida e garantem que o processo é estável, rápido e robusto. Já para o segundo item deste trabalho, os resultados obtidos mostram que os modelos de inteligência artificial conseguem recuperar a distribuição de fase do campo eletromagnético para reconstrução do mesmo, e performam de maneira satisfatória para relações sinal ruído de medição acima de 5 dB. Tais resultados também são consolidados com análises estatísticas robustas.


  • Mostrar Abstract
  • A caracterização experimental de antenas vem ao longo dos anos tornando-se um importante campo de estudo do eletromagnetismo aplicado. Isso fica mais evidente devido ao fato que o projeto de elementos irradiantes estão cada vez mais complexos devido ao significante aumento das demandas eletrônicas, influência do ambiente circundante, especificações de operação e banda e funcionalidades adicionais aumentam a ainda mais a necessidade de investigações e estudos mais profundos dos elementos radiantes. No entanto, apesar do fato de tal área ter uma vasta quantidade de estudos conduzidos, ela ainda possui desafios. O problema de reconstrução do campo magnético por caracterização pode ser considerado como NP-difícil e não convexo, e quantidade de dados e as estratégias de aquisição de dados possuem um grande impacto no sucesso final do processo. Neste contexto, esse trabalho possui como objetivo apresentar novas estratégias de reconstrução do campo eletromagnético utilizado estratégias interpoladas baseadas na regularização de Thikonov-Philips, que otimizada as posições de amostragem paralelo-equatorial do campo, em que o número de condicionamento é métrica utilizada para atingir tal objetivo. Tal estratégia permite a reconstrução do campo eletromagnético com dados faltantes, em que os efeitos de Gibbs nos limites da janela utilizada são praticamente desprezíveis. Além disso, uma nova abordagem de reconstrução do campo eletromagnético baseado na resolução do problema de recuperação de fase utilizando inteligência artificial também é apresentada, permitindo obter o campo eletromagnético irradiado em uma determinada esfera usando apenas os dados de amplitude e suas posições angulares. Para a primeira técnica, os resultados foram comparados com medições, e o processo de interpolação é computacionalmente eficiente e mostrou-se extremamente relevante para aplicações em que a quantidade de dados é limitada e é contaminado por ruído de maneira considerável. Todos esses resultados foram obtidos de maneira estatisticamente sólida e garantem que o processo é estável, rápido e robusto. Já para o segundo item deste trabalho, os resultados obtidos mostram que os modelos de inteligência artificial conseguem recuperar a distribuição de fase do campo eletromagnético para reconstrução do mesmo, e performam de maneira satisfatória para relações sinal ruído de medição acima de 5 dB. Tais resultados também são consolidados com análises estatísticas robustas.

8
  • Jose Antonio de França Junior
  • An NS-3 Module for Simulation of Simultaneous Wireless Information and Power Transfer (SWIPT) over IEEE 802.11 Networks

  • Orientador : MARCELO MENEZES DE CARVALHO
  • MEMBROS DA BANCA :
  • MARCELO MENEZES DE CARVALHO
  • HUGERLES SALES SILVA
  • UGO SILVA DIAS
  • MARCOS AUGUSTO MENEZES VIEIRA
  • Data: 28/11/2023

  • Mostrar Resumo
  • Em meio a um mundo complexo que abrange, por um lado, profundos avanços tecnológicos conquistados pela humanidade por meio do uso do conhecimento científico, exemplificados pelo desenvolvimento de máquinas capazes de imitar a interação humana com o mundo. Por outro lado, a humanidade retrocede a eras primitivas e utiliza tecnologias relacionadas para matar crianças em uma guerra tecnológica. Nesse contexto, apresentamos uma pesquisa realizada em outra frente, que poderá contribuir para o avanço da autonomia das máquinas, permitindo que se tornem fontes autossustentáveis de energia. Apesar do grande desafio que essa proposta representa dentro de um amplo espectro de dispositivos eletrônicos que anseiam por fontes que os tornem autossustentáveis do ponto de vista energético, nossa proposta tem como objetivo atender inicialmente a dispositivos de Internet das Coisas, que podem ser implantados em arquiteturas de redes padronizadas. Portanto, nossa pesquisa científica resultou no desenvolvimento de uma extensão para a biblioteca do "Network Simulator 3" (NS-3), a fim de possibilitar a simulação do "Simultaneous Wireless Information and Power Transfer" (SWIPT) em redes IEEE 802.11. Nas páginas a seguir, fornecemos uma descrição detalhada sobre a extensão proposta em relação aos seus principais blocos de construção, seus mecanismos subjacentes e sua resposta aos parâmetros e modos de operação da camada física (PHY). Além disso, discutimos o desenvolvimento de novas classes e outros tipos de dados de acordo com o padrão adotado pelo NS-3. No final do nosso trabalho, avaliamos o desempenho da nossa implementação utilizando métricas padronizadas que nos permitem concluir que nossa implementação funciona nos cenários predeterminados para sua implementação. O resultado desta investigação é um ambiente de simulação SWIPT completo que pode ser usado para o projeto e avaliação de desempenho de novos protocolos de eficiência energética baseados em SWIPT para a tecnologia IEEE 802.11.


  • Mostrar Abstract
  • In the midst of a complex word that comprises at one end profound technological advancements mankind has achieved through the usage of scientific knowledge, exemplified by the development of machines that can mimic human interaction to the the world. On another end, mankind regress to primitive stages and use adjacent technologies to kill children in technological war. In this context, we propose to contribute on a different front which may help to extend the autonomy of machines by enabling them to become self-sustaining independent generators of energy for their own usage. Which represents quite a challenge considering the spectrum of devices that relentless demand reliable source of energy. Nonetheless, in our work we set sight on IoT devices that can be deployed in a standardized network architecture where our contribution could fit best. Therefore, through our research we implement an extension into the library of the Network Simulator 3 (NS-3) to enable the simulation of Simultaneous Wireless Information and Power Transfer (SWIPT) over IEEE 802.11 networks. In the following pages we provide a detailed description about the proposed extension regarding its major building blocks, its underlying mechanisms, and its response to Physical layer (PHY) parameters and modes of operation. Further, we discuss the development of new classes and other data types into the namespace of NS-3. Toward the end of our work we evaluate the performance of our implementation using standardized metrics that allow us to conclude that our implementation works in the scenarios used for its assessment. The outcome of this investigation is a full-featured SWIPT simulation environment that can be used for the design and performance evaluation of new SWIPT-based energy-efficient protocols based on IEEE 802.11 technology.

9
  • Bruno Tunes de Mello
  • Adaptive Kalman Filtering for Small Satellite Attitude Estimation.

  • Orientador : RENATO ALVES BORGES
  • MEMBROS DA BANCA :
  • RENATO ALVES BORGES
  • GEOVANY ARAUJO BORGES
  • WILLIAM REIS SILVA
  • VALDEMIR CARRARA
  • Data: 30/11/2023

  • Mostrar Resumo
  • Devido à evolução da tecnologia, particularmente a eletrônica, o desenvolvimento de satélites tornou-se mais acessível, permitindo sua construção por empresas startups e universidades. Tais satélites utilizam componentes de baixo custo, de uso geral, onde busca-se trocar uma plataforma de alto custo e confiabilidade por uma constelação de veículos de baixo custo, menos confiáveis, mais avançados tecnologicamente, e de fácil reposição. Neste contexto, um sistema de determinação de atitude adaptativo é uma alternativa para lidar com sensores que possuem estatísticas que variam ao longo do tempo ou que não são completamente conhecidas. Um ADCS adaptável garantiria maior confiabilidade à plataforma, aumentando a vida útil e reduzindo o custo de reposição. Tendo isto como motivação, o presente trabalho apresenta a análise de algoritmos para adaptação do método de filtragem em medições de sensores na estimação da atitude de um pequeno satélite. Limita-se ao estudo de métodos estocásticos para tal fim, como a estimação das matrizes de covariância dos ruídos do processo e observação, e a adaptação de tais matrizes por múltiplos fatores de escala. Os resultados obtidos mostram que a adaptação das matrizes de covariância permite acomodar as medidas degradadas, diminuindo a sua influência no filtro e proporcionando a manutenção da precisão da atitude do satélite em relação ao estimador sem mecanismo de adaptação.


  • Mostrar Abstract
  • Due to the technology progress, particularly in electronics the satellite development has become more accessible, allowing its manufacturing by startup companies and universities. Such satellites use low cost components, for general purpose, where one seeks for exchanging a high cost and high reliability platform for a low cost vehicle constellation, less reliable, more advanced technologically and with easy replacement. In this context, an adaptive attitude determination system is an alternative deal with sensors that have time-varying statistics or they are not completely known. An adaptive ADCS grants more reliability to the platform, increasing its life-cycle and reducing the replacement cost. Taking it as motivation, the work presents the analysis of algorithms for adaptation of the filtering method in sensor measurements in the attitude estimation of a small satellite. It is limited to the study of stochastic methods for such goal, as the estimation of the process and observation noise covariance matrices, along with the hypothesis test regarding the fault occurrence and the matrices adaptation by multiple scale factors. The results obtained show that the covariance matrices adaptation allows the faulty measurements to be accommodated, reducing their influence in the filter and providing the attitude accuracy preservation for the satellite when comparing with the estimator without the fault detection and isolation mechanism.

10
  • Natalia Oliveira Borges
  • Controle de Consenso para Formação de Robôs Multiagentes

  • Orientador : JOAO YOSHIYUKI ISHIHARA
  • MEMBROS DA BANCA :
  • JOAO YOSHIYUKI ISHIHARA
  • HENRIQUE CEZAR FERREIRA
  • RENATO ALVES BORGES
  • MARCO HENRIQUE TERRA
  • Data: 01/12/2023

  • Mostrar Resumo
  • O desenvolvimento de técnicas de controle de consenso possui inúmeras aplicabilidades em sistemas multiagentes robóticos. Este trabalho visa estabelecer protocolos para projeto de controladores de consenso robusto de sistemas multiagentes lineares a partir do compartilhamento de saídas entre os agentes. Considera-se, nesse contexto, as possíveis incertezas relacionadas à topologia de comunicação entre os agentes e a presença de entradas de distúrbios que podem afetar tanto a dinâmica dos agentes quanto a medição de suas saídas. O projeto de controladores de consenso robusto é posteriormente utilizado para desenvolver leis de controle que solucionam o problema de formação entre os agentes em duas propostas distintas: no caso em que a formação é relativa entre os agentes e invariante no tempo e no caso em que se pretende rastrear uma formação variante no tempo. Para o controle de formação também são consideradas as possibilidades de incertezas na topologia de comunicação e atuação de distúrbios. Por m, o projeto de controlador linear desenvolvido é aplicado em simulação robótica com um grupo de robôs móveis diferenciais do tipo Pineer P3-DX. Neste caso é necessário linearizar a dinâmica do robô a partir da técnica de linearização por realimentação de entrada-saída. Os resultados obtidos na aplicação do controle de formação multi-robôs são discutidos, destacando as principais vantagens e limitações.


  • Mostrar Abstract
  • The development of consensus control techniques has numerous applications in robotic multi-agent systems. This work aims to establish protocols for the design of robust consensus controller for linear multi-agent systems, based on output sharing among the agents. In this context, considerations are made regarding possible uncertainties related to the communication topology and the presence of disturbance inputs that can affect both the agents' dynamics and the measurement of their outputs. The design of the robust consensus controller is subsequently used to develop control laws that solve the formation problem in two distinct proposals: in the case where the formation is relative among the agents and time-invariant, and in the case where it is desired to track a time-variant formation, while maintaining the same conditions of uncertainties and disturbance effects. Finally, the developed linear controller design is applied in a robotic simulation with a group ofPioneer P3-DXmobile robots. In this scenario, it is necessary to linearize the robot's dynamics using the input-output feedback linearization technique. The results obtained from the application of multi-robot formation control are discussed, highlighting the main advantages and limitations.

Teses
1
  • LETÍCIA MOREIRA VALLE
  • A new machine learning based framework to classify and analyze industry-specific regulations

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • DIEGO LISBOA CARDOSO
  • FERNANDO DE BARROS FILGUEIRAS
  • GEORGES DANIEL AMVAME NZE
  • UGO SILVA DIAS
  • VINICIUS PEREIRA GONCALVES
  • Data: 09/05/2023

  • Mostrar Resumo
  • Transparência e abertura de governo são fatores-chave para a modernização do estado. A combinação entre transparência e informação digital deu origem ao conceito de Governo Aberto, que aumenta o entendimento do cidadão sobre processos governamentais e como consequência o monitoramento das ações do governo, o que, por sua vez, melhora a qualidade dos serviços públicos e do processo decisório governamental. Com o objetivo de melhorar a transparência legislativa e o entendimento do processo regulatório brasileiro e suas características, este trabalho apresenta o RegBR, o primeiro framework nacional para centralizar, classificar e analisar as regulamentações do governo brasileiro. Foi criada uma base de dados centralizada da legislação Federal Brasileira construída a partir de rotinas de ETL automatizadas e processadas com técnicas de mineração de dados e aprendizado de máquina. Esta estrutura avalia diferentes modelos de processamento de linguagem natural (PLN) em uma tarefa de classificação de texto em um novo corpus jurídico português e realiza análises regulatórias com base em métricas que dizem respeito à complexidade linguística, restritividade, popularidade e relevância de citação específica dos setores da economia. Assim, este trabalho é um projeto inovador e único que propõe métricas que podem ser utilizadas pelos formuladores de políticas públicas para mensurar seu próprio trabalho e que visa aumentar a abertura e transparência do processo público, mas também apoiar novos estudos na área de impacto regulatório brasileiro .


  • Mostrar Abstract
  • Government transparency and openness are key factors to bring forth the modernization of the state. The combination of transparency and digital information has given rise to the concept of Open Government, that increases citizen understanding and monitoring of government actions, which in turn improves the quality of public services and of the government decision making process. With the goal of improving legislative transparency and the understanding of the Brazilian regulatory process and its characteristics, this work introduces RegBR, the first national framework to centralize, classify and analyze regulations from the Brazilian government. A centralized database of Brazilian federal legislation built from automated ETL routines and processed with data mining and machine learning techniques was created. This framework evaluates different natural language processing (NLP) models in a text classification task on a novel Portuguese legal corpus and performs regulatory analysis based on metrics that concern linguistic complexity, restrictiveness, popularity, and industry-specific citation relevance. Hence, this work is an innovative and unique project that proposes metrics that can be used by policy makers to measure their own work and which aims to increase openness and transparency of the public process, but also supports new studies in the area of Brazilian regulatory impact.

2
  • Luis Fernando Arias Roman
  • Proposal of Authentication and Authorization Protocols for Electric Vehicles Charging Stations

  • Orientador : PAULO ROBERTO DE LIRA GONDIM
  • MEMBROS DA BANCA :
  • PAULO ROBERTO DE LIRA GONDIM
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • MARCELO MENEZES DE CARVALHO
  • LUIZ CARLOS PESSOA ALBINI
  • RENATO MARIZ DE MORAES
  • Data: 29/06/2023

  • Mostrar Resumo
  • O carregamento sem fio para veículos elétricos (“Electrical Vehicles” - EV)
    enquanto o veículo está em movimento ganhou atenção especial como um novo serviço.
    Este serviço é suportado por tecnologias de transferência de energia sem fio (“Wireless
    Power Transfer” - WPT), que promovem o carregamento durante a condução (“Charging
    while Drive” - CWD) por meio de indução magnética de bobinas instaladas no solo. No
    entanto, o serviço também trouxe novos desafios, incluindo a segurança do sistema, que
    devem ser resolvidos.
    O sistema de carga CWD-WPT deve garantir a privacidade, o anonimato, a
    integridade e a disponibilidade dos dados armazenados ou em trânsito pelo sistema,
    sendo necessária a implementação de um controle de acesso por meio da autenticação
    do usuário para garantir a segurança e privacidade dos dados. O processo de
    autenticação do usuário é fundamental para o sistema de carga CWD-WPT, e os
    protocolos utilizados para esta tarefa devem garantir o acesso de usuários válidos ao
    sistema e resistir a ataques de segurança.
    Esta tese de doutorado aborda o projeto de protocolos de autenticação e
    autorização de uma estação de carregamento CWD-WDP baseada em nuvem, que
    garante a segurança da informação de forma mais eficiente, na maioria dos casos, em
    termos de custos de comunicação, computação e energia, em comparação a outros
    protocolos publicados. Esta tese apresenta 4 (quatro) protocolos para autenticação e
    controle de acesso de EVs em uma estação de carregamento CWD-WPT integrada em
    uma infraestrutura VANET (“Vehicular Ad Hoc Network”) baseada em nuvem.
    O 1o, 2o e 4o protocolos foram projetados com base em uma estação de
    carregamento com controle centralizado, enquanto o 3o protocolo projetado com base
    em uma estação de carregamento com controle descentralizado. O 1o protocolo foi
    construído principalmente com o uso de criptografia baseada em emparelhamento
    bilinear e cadeia de hash. O 2o protocolo é uma variante do primeiro, cujo principal
    diferencial é a adoção de um novo esquema criptográfico baseado em mapas caóticos e
    árvore binária para controle de acesso no sistema. Seu desempenho em relação a
    métricas como custos computacionais, de comunicação e de energia é melhor do que
    outros esquemas e garante a autenticação mútua entre os EVs e todas as entidades do
    sistema.
    Por outro lado, o 3o protocolo foi projetado em uma arquitetura de carregamento
    CWD-WPT descentralizada, e os esquemas criptográficos utilizados são mapas caóticos
    e cadeia de “hash”. Foi empregado “blockchain” para a criação e gerenciamento de

    grupos e autenticação e controle de acesso do EV na estação de carregamento CWD-
    WPT. De acordo com os resultados, o protocolo baseado em “blockchain” obteve melhor

    desempenho computacional, energia e recursos de segurança em comparação com
    outros protocolos.
    A arquitetura do sistema considerada para o desenho do 4o protocolo possui um
    esquema hierárquico segundo o qual o sistema de confiança, o blockchain e o sistema
    de cobrança CWD-WPT são gerenciados na nuvem tradicional, enquanto a computação
    em névoa gerencia as RSUs (“Road Side Units”) das estações de carregamento. O
    protocolo usa confiança computacional para validar a forma de autenticação no sistema.

    Se a confiança do usuário estiver acima de certo nível, o processo de autenticação no
    sistema torna-se mais leve e rápido, sem descuidar da segurança das comunicações. A
    utilização de mapas caóticos se mostrou vantajosa em termos de desempenho de
    execução e tem promovido uma rápida criação de chaves de sessão e assinaturas
    digitais com baixo custo computacional. Por outro lado, o blockchain fornece às redes
    VANET transparência em seu funcionamento, resistência a ataques e uma validação
    rápida e eficiente das credenciais do usuário no processo de autenticação para autorizar
    ou negar seu acesso ao sistema. Também garante uma alta disponibilidade do serviço
    devido ao seu design descentralizado.
    A segurança dos protocolos propostos foi verificada analiticamente, sendo
    garantidas propriedades como autenticação mútua, acordo de chaves, confidencialidade,
    integridade, privacidade, sigilo direto perfeito e sigilo perfeito reverso; além disso, a
    análise destaca a resistência a ataques ao sistema, como injeção, repetição (“replay”) de
    mensagens, chave conhecida, negação de serviço (DoS, modelo OSI de 2-3 camadas),
    Homem no meio (“Man in the Middle” – MitM), mascaramento, personificação,
    desvinculabilidade (“unlinkability”), gastos duplos, resistência à adivinhação de senhas,
    vazamento de números aleatórios e informações privilegiadas. Finalmente, uma
    verificação formal de segurança foi realizada usando a ferramenta AVISPA.


  • Mostrar Abstract
  • Wireless charging for electric vehicles (EV), while the vehicle is in motion, has gained
    special attention as a new service for such vehicles. It is supported by wireless power
    transfer (WPT) technologies, which promote charging while driving (CWD) through
    magnetic induction from coils installed on the ground. However, the service has also led
    to new challenges, including system security, which must be met.
    The CWD-WPT charging system must guarantee the privacy, anonymity, integrity, and
    availability of data stored or in transit through the system, thus requiring the
    implementation of an access control through user authentication towards ensuring data
    security and privacy.
    The user authentication process is fundamental for the CWD-WPT charging system,
    and the protocols used for this task must guarantee the access of valid users to the
    system and resist security attacks.
    This doctoral thesis addresses the design of authentication and authorization protocols
    of a cloud-based CWD-WDP charging station, which guarantees the security of
    information, in most cases, in a more efficient way in terms of costs in communication,
    computing and energy, compared to other published protocols.
    This thesis presents 4 (four) protocols for the authentication and access control of EVs
    in a CWD-WPT charging station integrated in a cloud-based VANET (Vehicular Ad Hoc
    Network) infrastructure. The 1st, 2nd, and 4th ones were designed on the basis of a
    charging station with centralized control, whereas the 3rd is devoted to a decentralized
    control.
    The 1st protocol was built primarily with the use of bilinear pairing based cryptography
    and hash chaining. The 2nd is a variant of the first, whose main difference is the adoption
    of a new cryptographic scheme based on chaotic maps and a binary tree for access
    control in the system. Their performance regarding metrics such as computational,
    communication, and energy costs is better than that of other schemes, and ensures
    mutual authentication among EVs and all entities in the system.
    On the other hand, the 3rd protocol was designed on a decentralized CWD-WPT
    charging architecture, and the used cryptographic schemes are chaotic maps and hash
    chain. Blockchain was employed for the creation and management of groups and
    authentication and access control of the EV in the CWD-WPT charging station. According
    to the results, the blockchain-based protocol achieved better computational performance,
    energy, and security features compared to other protocols.
    The system architecture considered for the design of the 4th protocol has a hierarchical
    scheme according to which the trust system, the blockchain, and the CWD-WPT billing
    system are managed in the traditional cloud, while fog computing manages the RSUs
    (Road Side Units) of the charging stations. The protocol uses computational trust to
    validate the form of authentication in the system. If the user's confidence is above a
    certain level, the authentication process in the system becomes lighter and faster, without
    neglecting the security of communications.
    The use of chaotic maps has been advantageous in terms of execution performance
    and has promoted a fast creation of session keys and digital signatures at low
    computational costs. On the other hand, blockchain provides VANET networks with
    transparency in their functioning, resistance to attacks, and a quick and efficient
    validation of the user's credentials in the authentication process for authorizing or denying
    their access to the system. It also guarantees a high availability of the service due to its
    decentralized design.
    The security of the proposed protocols was analytically verified, and properties such
    as mutual authentication, key agreement, confidentiality, integrity, privacy, perfect forward
    secrecy and perfect backward secrecy have been guaranteed; additionally, the analysis

    highlights resistance to system attacks such as injection, replay, known key, Denial-of-
    Service (DoS, 2-3 layers OSI model), Man-in-the-Middle (MitM), masquerade,

    impersonation, unlinkability, double spending, resistance password-guessing, random
    number leakage, and privileged insider. Finally, a formal security check has been carried
    out using AVISPA tool.

3
  • JUAN CARLOS GONZALEZ GOMEZ
  • SYNCHRONIZATION OF UNDERACTUATED CHAOTIC SYSTEMS WITH APPLICATIONS TO INFORMATION SECURITY

     

  • Orientador : JOSE ALFREDO RUIZ VARGAS
  • MEMBROS DA BANCA :
  • BISMARK CLAURE TORRICO
  • ELMER ROLANDO LLANOS VILLARREAL
  • GUILLERMO ALVAREZ BESTARD
  • JOAO PAULO JAVIDI DA COSTA
  • JOSE ALFREDO RUIZ VARGAS
  • Data: 30/06/2023

  • Mostrar Resumo
  • Recentemente, vários estudos sobre a sincronização de sistemas caóticos foram publicados. Geralmente, na literatura, encontram-se sincronizadores onde o controle está presente em todas as equações de estado do sistema escravo. Por outro lado, trabalhos sobre comunicação segura baseada em sincronização mínima são muito raros. Motivado pelas possibilidades de melhoria, esta tese de doutorado propõe múltiplos esquemas de sincronização para sistemas caóticos e hipercaóticos, onde cada sistema possui uma metodologia de prova, estrutura e processo de criptografia e descriptografia distintos na comunicação segura. Consequentemente, cada sistema tem uma contribuição diferente. O capítulo 3 propõe um esquema de sincronização e antissincronização projetiva baseado em controle subatuado. O esquema é caracterizado por garantir a limitação e a convergência dos erros de sincronização ou antissincronização projetiva usando a teoria de Lyapunov. O capítulo 4 propõe um esquema de sincronização subatuado de um sistema financeiro hipercaótico capaz de considerar distúrbios limitados de qualquer natureza. O projeto do sistema usa a teoria de Lyapunov para garantir que o sistema seja robusto. O capítulo 5 propõe um sincronizador baseado em um sistema caótico de Liu. Ele usa um sinal de controle subatuado baseado na teoria de Lyapunov para sincronizar todos os estados na presença de perturbações com erros limitados. O sistema apresenta uma estrutura conveniente, aliada a uma função candidata à Lyapunov não trivial, para permitir a sincronização com apenas um sinal de controle na segunda equação de estado do sistema escravo. No capítulo 6 desta tese, o autor propõe um esquema simples de sincronização para o circuito de Chua, considerando perturbações, com controle proporcional em apenas uma das equações de estado do sistema. Além disso, é mostrado um esquema de comunicação segura com criptografia paralela, em que a dimensão das mensagens é a mesma que a dimensão dos estados. O capítulo 7 propõe uma sincronização subatuada robusta de um sistema hipercaótico de Lorenz. Adicionalmente, o esquema proposto é aplicado em telecomunicações seguras. Finalmente, o capítulo 8 propõe um esquema de sincronização subatuada para um sistema hipercaótico perturbado usando uma prova alternativa de Lyapunov. A abordagem proposta é mínima na forma que o sincronizador é simplificado ao máximo, uma vez que o controle é escalar e atua em apenas um estado. Os esquemas propostos em todos os capítulos consideram a presença de distúrbios em todos os estados na análise de estabilidade.


  • Mostrar Abstract
  • Recently, several studies on the synchronization of chaotic systems have been published. Generally, synchronizers in which control is present in all the state equations of the slave system are widely found in the literature. On the other hand, works on secure communication based on minimal synchronization are very rare. Motivated by the improvement possibilities, this doctoral thesis proposes multiple synchronization schemes for chaotic and hyperchaotic systems, where each system has a different proofing methodology, structure, and encryption and decryption process in secure communication. Consequently, each system has a different contribution. Chapter 3 proposes a projective synchronization and antisynchronization scheme based on underactuated control. The scheme is characterized by guaranteeing the boundedness and convergence of the projective synchronization or antisynchronization errors using the Lyapunov theory. Chapter 4 proposes an underactuated synchronization scheme of a hyperchaotic financial system capable of considering bounded disturbances of any nature. The system design uses Lyapunov theory to ensure that the system is robust. Chapter 5 proposes a synchronizer based on a Liu chaotic system. It uses a signal of an underactuated control based on Lyapunov theory to synchronize all states in the presence of perturbations with bounded errors. It has a convenient structure, in conjunction with a nontrivial Lyapunov candidate, to allow synchronization with only a control signal in the second state equation of the slave system. In Chapter 6 of this thesis, the author proposes a simple synchronization scheme for the Chua circuit, considering perturbations, with proportional control in only one of the state equations of the system. In addition, a secure communication scheme with parallel encryption is shown, in which the dimension of the messages is the same as the dimension of the states. Chapter 7 proposes a robust underactuated synchronization of a hyperchaotic Lorenz system. Furthermore, the proposed scheme is applied in secure telecommunications. Finally, Chapter 8 proposes an underactuated synchronization scheme for a perturbed hyperchaotic system using an alternative Lyapunov proof. The proposed approach is minimal in the way that the synchronizer is simplified to the maximum since the control is scalar and acts in only one state. The proposed schemes in all chapters consider the presence of disturbances in all states in the stability analysis.

4
  • ARTHUR AMARAL FERREIRA
  • Análise e predição de eventos de clima espacial e seus impactos nos sistemas comunicação por satélite

  • Orientador : RENATO ALVES BORGES
  • MEMBROS DA BANCA :
  • RENATO ALVES BORGES
  • DANIEL GUERREIRO E SILVA
  • ADOLFO BAUCHSPIESS
  • JOÃO FRANCISCO GALERA MONICO
  • NORBERT JAKOWSKI
  • Data: 07/07/2023

  • Mostrar Resumo
  • Os eventos de clima espacial podem afetar a operação de sistemas tecnológicos modernos dos quais a humanidade depende atualmente, incluindo redes de energia elétrica, veículos espaciais, comunicação por ondas de rádio e sistemas de navegação. Portanto, qualquer nova informação que nos ajude a prever e entender melhor os fenômenos do clima espacial e seus impactos em nossa infraestrutura e serviços é do maior interesse. Nesse contexto, este manuscrito apresenta os resultados da investigação de diferentes fenômenos do clima espacial, abordando principalmente os distúrbios ionosféricos propagantes de larga escala (Large Scale Travelling Ionospheric Disturbances, LSTIDs), as subtempestades (avaliadas aqui por meio do índice de eletrojato auroral (Auroral Electrojet, AE) e os efeitos da rotação de Faraday e da cintilação na comunicação por satélite na banda UHF. Na primeira parte deste manuscrito, é realizada uma análise estatística dos LSTIDs observados em médias latitudes na região Européia durante a fase descendente do ciclo solar 24. Além disso, é apresentada uma investigação sobre os possíveis índices derivados de dados de GNSS que podem servir como precursores para a ocorrência de LSTIDs. Os resultados indicam que o índice AATR (Along Arc TEC Rate) e os gradientes ionosféricos são candidatos promissores que podem auxiliar o monitoramento em tempo real de tais distúrbios. Esse manuscrito também apresenta metodologias para prever as subtempestades e os LSTIDs usando dados de vento solar coletados no Ponto Lagrangiano L1. Para prever o índice AE, é proposto um modelo de rede neural artificial feed-forward, e os resultados sugerem que a irradiância solar pode não influenciar as estimativas. Além disso, os resultados mostraram que as informações combinadas do campo magnético interplanetário (Interplanetary Magnetic Field, IMF) e da velocidade do vento solar fornecem as melhores estimativas do índice AE. As informações do IMF são, no entanto, dominantes quando comparadas à velocidade do vento solar. Com relação aos LSTIDs, diferentes metodologias são investigadas visando permitir a previsão de tais distúrbios sobre a região europeia usando o dados de vento solar. Nesse caso, é proposto um novo modelo que, de acordo com o melhor conhecimendo do autor, é o primeiro modelo desenvolvido para a predição do nível de atividade dos LSTIDs. A última parte deste manuscrito é dedicada à investigação dos efeitos da rotação de Faraday e da cintilação ionosférica no planejamento da missão AlfaCrux, que é uma missão educacional e de rádio amador coordenada pelo Laboratório de Simulação e Controle de Sistemas Aeroespaciais da Universidade de Brasília, Brasil. Como o Brasil está localizado em uma região com alta ocorrência de bolhas e irregularidades no plasma ionosférico, a avaliação do risco de interrupção da comunicação devido à cintilação ionosférica é essencial para o planejamento e o uso eficiente do canal de comunicação. Nesse cenário, é proposta uma nova metodologia para avaliar o risco de interrupção da comunicação com base na análise de risco da teoria da decisão. A metodologia proposta pode ser útil não apenas para a missão AlfaCrux, mas para qualquer outra missão de comunicação por satélite que opere na faixa de frequência UHF. As principais contribuições da pesquisa apresentada neste manuscrito são, portanto, o aprimoramento da compreensão desses fenômenos de clima espacial e seus respectivos impactos, e o desenvolvimento de estratégias para prevê-los.


  • Mostrar Abstract
  • Space weather events can affect the operation of modern technological systems that humankind currently relies on, including electric power grids, spaceborne vehicles, radio wave communication, and navigation systems. Therefore, any new information that helps us to predict and better understand the space weather phenomena and their impact on our infrastructure and services is of the highest interest. In this framework, this manuscript presents the results of the investigation of different space weather phenomena, addressing primarily the large scale travelling ionospheric disturbances (LSTIDs), the substorms (assessed here via the Auroral Electrojet index, AE), and the effects of Faraday rotation and scintillation on UHF satellite communication. In the first part of this manuscript, a statistical analysis of the LSTIDs observed over mid-latitude Europe during the descending phase of solar cycle 24 is performed. In addition, an investigation on potential GNSS based indices that can serve as precursors for the occurrence of LSTIDs is presented. The results indicate that the Along Arc TEC Rate (AATR) index and ionospheric gradients are promising candidates that may support real-time monitoring of such disturbances. This manuscript also presents methodologies for predicting the substorms and the LSTIDs using solar wind data from Lagrangian Point L1. For predicting the AE index, a feed-forward artificial neural network model is proposed, and the results suggest that the solar irradiance may not influence the estimates. In addition, the results have shown that the combined information of interplanetary magnetic field (IMF) and solar wind velocity provide better estimates of the AE index. The IMF information is, however, dominant when compared to the solar wind velocity. Regarding the LSTIDs, different methodologies for their prediction over the European region using solar wind are investigated, and a new model is proposed, which to the best of the author’s knowledge, is the first model for LSTIDs activity prediction. The last part of this manuscript is devoted to investigating the effects of the Faraday Rotation and the ionospheric scintillation in the planning of the AlfaCrux mission, which is an amateur radio and educational mission coordinated by the Laboratory of Simulation and Control of Aerospace Systems of the University of Brasília, Brazil. Since Brazil is located in a region with high occurrence of ionospheric plasma bubbles and irregularities, assessing the risk of communication outage due to ionospheric scintillation is essential for planning and efficient use of the communication channel. In this framework, a new methodology for assessing the risk of communication outage based on the risk analysis from decision theory is proposed. This proposed methodology may be useful not only for the AlfaCrux mission, but for any other satellite communication mission operating in the UHF frequency band. The main contributions of the investigation presented in this manuscript are, therefore, the improvement in understanding of these SWe phenomena and their impacts and the development of strategies to predict them.

5
  • Leticia Almeida Gama
  • A Time-Domain Cross-Differential Protection Algorithm For Double Circuit Transmission Lines

  • Orientador : KLEBER MELO E SILVA
  • MEMBROS DA BANCA :
  • KLEBER MELO E SILVA
  • FERNANDO CARDOSO MELO
  • FRANCISCO DAMASCENO FREITAS
  • FELIPE VIGOLVINO LOPES
  • JOSE CARLOS DE MELO VIEIRA JUNIOR
  • Data: 01/09/2023

  • Mostrar Resumo
  • A disponibilidade de energia elétrica está ligada ao desenvolvimento socioeconômico da sociedade.
    No Brasil, o consumo de energia elétrica cresceu 10% em uma década, devido ao
    progresso tecnológico, além disso, a previsão média de crescimento de carga no Brasil de 2023
    a 2027 é de 3,3%. A operação coletiva eficiente dos equipamentos que compõem os sistemas de
    energia elétrica é essencial para garantir níveis de energia confiáveis e seguros para os consumidores.
    No entanto, para garantir a continuidade na entrega desse serviço os sistemas de energia
    elétrica são conduzidos a se expandir, o que geralmente implica num aumento na complexidade
    do sistema de transmissão, devido à inevitabilidade da construção de linhas de transmissão
    adicionais. Por contribuirem para aumentar a segurança e a confiabilidade do sistema, há interesse
    em linhas de transmissão de circuito duplo. No entanto, a proximidade dos circuitos
    gera acoplamento mútuo, desafiando os esquemas de proteção. Devido à sua grande extensão
    e exposição climática, as linhas de transmissão são suscetíveis a defeitos. Portanto, sistemas
    de proteção eficientes são vitais para garantir a integridade dos equipamentos, a estabilidade
    do sistema e evitar apagões generalizados. A proteção de linhas de transmissão de circuito
    duplo é crucial para garantir a confiabilidade do sistema elétrico. As abordagens tradicionais,
    como esquemas de teleproteção e proteção diferencial, dependem da existência de canais de
    comunicação e sincronização de dados, o que pode aumentar os custos e a complexidade do
    sistema. Uma alternativa eficaz é a proteção de distância, que opera com base em um único
    terminal, não depende de comunicações entre terminais, mas pode ter atrasos na detecção de
    faltas. Uma solução promissora que está sendo investigada é a proteção diferencial cruzada, a
    qual elimina a dependência de canal de comunicação, mas por necessitar da estimação fasorial
    pode refletir em atrasos na sua atuação. Dada a crescente demanda por eletricidade, há uma
    busca contínua por elementos de proteção mais rápidos, como os fundamentados no domínio do tempo, com o objetivo de assegurar tempos de eliminação de faltas mais curtos e, assim,

    preservar a estabilidade do sistema elétrico. Nesse contexto, o algoritmo proposto representa
    uma solução inovadora para a proteção de linhas de circuito duplo. Ele combina a eficácia da
    proteção diferencial cruzada, conhecida por sua alta cobertura instantânea de proteção, com
    a agilidade do domínio do tempo, caracterizado por tempos de operação rápidos. O conjunto
    de entrada do algoritmo proposto é composto por correntes secundárias provenientes do TCs
    instalado em cada fase, no mesmo terminal, para ambos os circuitos da linha de transmissão
    do circuito duplo em análise. Esses sinais são normalizados na mesma base, a fim de eliminar
    as diferenças na relação de transformação dos TCs e nos parâmetros da linha, para os casos
    em que os circuitos não compartilham a mesma torre de transmissão. Após a normalização,
    novos sinais de corrente são inseridos diretamente no bloco de cálculo de valor incremental,
    geralmente chamado de filtro delta. Para eliminar os efeitos da componente CC de decaimento
    exponencial, são calculadas correntes de réplica incremental. Após esse procedimento, as correntes
    de operação e restrição são obtidas de maneira analogada à função de proteção diferencial
    cruzada e condições de operação são avaliadas. Para facilitar isso, as condições examinadas são
    integradas e referidas como energias operacionais dos circuitos 1 e 2. Ao mesmo tempo, um
    sinal senoidal, que representa a corrente de pickup escolhida, também é integrado. Finalmente,
    o bloco que representa a lógica de trip usa as quantidades integradas como entrada, para que o
    elemento diferencial proposto determine se um comando de trip deve ser emitido ou não. Dos
    resultados percebe-se que o desempenho do algoritmo proposto não é afetado pela variação da
    intensidade do acoplamento de sequência zero entre os circuitos. O algoritmo proposto exibiu
    também um desempenho superior em relação ao tempo de operação e à cobertura de proteção
    instantânea da linha de transmissão, mesmo em cenários com variações na localização da falta
    e na força das fontes. Além disso, o algoritmo não tem seu desempenho prejudicado pela variação
    da resistência de falta, ao considerar a faixa de avaliação avaliada, e opera corretamente
    para todos os casos simulados. Notavelmente, sua operação não requer comunicação entre os
    terminais da linha de transmissão nem a utilização de sinal GPS e sincronização de dados, por
    utilizar dados provenientes de um único terminal.


  • Mostrar Abstract
  • Zero-sequence mutual coupling in double-circuit transmission lines leads to challenges related
    to protection systems dependability and security. When it comes to protecting double
    circuit lines, differential and distance protection functions present disadvantages such as the
    requirement of communication channel and data synchronization, which increases the complexity
    and cost of the protection scheme implementation, and the presence of underreaching
    elements, caused by zero-sequence coupling. The solution presented by the cross-protection
    function is based on only one terminal and it is immune to the effects of zero-sequence coupling.
    However, its operation is limited by the inherent delay regarding phasor estimation.
    Thus, this thesis proposes a new cross-differential time domain-based protection algorithm for
    double circuit transmission lines. For this purpose, concepts of time domain-based incremental
    elements are combined with the principle of phasor-based cross-differential protection. Incremental
    replica currents are used for each phase of both circuits of the evaluated double circuit
    line. Then, operating and restraining currents are obtained similarly to the cross-differential
    protection function. The ATP/EMTP software was used to simulate a real 200 km 500 kV
    transmission line subjected to different fault scenarios. The simulated cases were experimentally
    evaluated using real commercially available relays. In this manner, the performance of the
    proposed algorithm could be compared with native functions of the relays under analysis. The
    use of the proposed algorithm results in secure, wide-ranging and fast operations. Thus, adoption
    of the proposed cross-differential time domain-based algorithm alongside readily available
    device-embedded protection functions represents a promising and appropriate alternative for
    protecting double circuit transmission lines.

    .

6
  • BRUNO RODOLFO DE OLIVEIRA FLORIANO
  • Neural-network-based model predictive control for consensus of nonlinear systems

  • Orientador : HENRIQUE CEZAR FERREIRA
  • MEMBROS DA BANCA :
  • HENRIQUE CEZAR FERREIRA
  • EDUARDO STOCKLER TOGNETTI
  • JOSE ALFREDO RUIZ VARGAS
  • ATILA MADUREIRA BUENO
  • MARCO HENRIQUE TERRA
  • Data: 15/12/2023

  • Mostrar Resumo
  • Este trabalho aborda, através do método de controle preditivo, o problema de consenso para sistemas multiagentes não lineares a tempo discreto sujeitos a topologias de comunicação chaveadas. Para sistemas multiagentes não lineares que seguem uma lei de chaveamento aleatório, não há soluções baseadas em controle preditivo que resultam em uma otimização confiável em tempo real. Nós propomos um novo algoritmo baseado em redes neurais que reduz os efeitos das deficiências de comunicação, causasdos pelo chaveamento Markoviano, aproximando e minimizando, em tempo real, a função de custo do controle preditivo. A conveniência do método proposto é certificada em simulações para diferentes cenários e aplicações. Finalmente, os passos futuros da atual pesquisa são detalhados.


  • Mostrar Abstract
  • This work addresses, through a model predictive control (MPC) approach, the consensus problem for discrete-time nonlinear multi-agent systems subjected to switching communication topologies. For systems following a random switching law, there is not any MPC solution that results in a reliable optimization in real-time. We propose a new neural-network-based algorithm that reduces the effects of communication deficiencies, caused by Markovian switching, by approximating and minimizing, in real-time, the MPC’s cost function. The convenience of the proposed method is certified in simulations for different applications and scenarios. Finally, the future steps of the current research are detailed.

7
  • RAIMUNDO GUIMARAES SARAIVA JUNIOR
  • INTELIGÊNCIA COMPUTACIONAL NO APOIO AO DIAGNÓSTICO DA DOENÇA DE ALZHEIMER

  • Orientador : FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • DANIEL GUERREIRO E SILVA
  • FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
  • HENRIQUE SARMENTO MALVAR
  • JOSE ANTONIO APOLINARIO JUNIOR
  • Data: 15/12/2023

  • Mostrar Resumo
  • O diagnóstico preciso da doença de Alzheimer ainda é um campo aberto para a ciência, tendo em vista se tratar de uma doença multifatorial e com difícil identificação das causas. As demências estão cada vez mais presentes na população mundial, que experimenta um aumento significativo na expectativa de vida e explica, em parte, o aumento do diagnóstico de Alzheimer, que é o tipo de demência mais frequente. A decadência neurológica faz parte do processo natural do envelhecimento, mas a doença de Alzheimer acelera o processo de degeneração neurológica trazendo grandes transtornos ao paciente e seus familiares, onerando os serviços públicos de saúde e causando óbitos precoces. Nesse contexto, este trabalho investiga técnicas de inteligência artificial que busquem auxiliar no diagnóstico da doença de Alzheimer, utilizando dados de natureza clinica e imagens de ressonância magnética. Mediante licenciamento para utilização, foram buscadas informações primárias nos estudos científicos Australian Imaging, Biomarker & Lifestyle Flagship Study of Ageing (AIBL), Alzheimers Disease Neuroimaging Initiative (ADNI) e no Open Access Series of Imaging Studies (OASIS). Para tratamento dos dados dados clínicos foi proposto um novo método de seleção de atributos, criadas bases de dados reduzidas, e feita a avaliação pelos modelos de classificação de aprendizado de máquina. Também foi investigado o uso de imagens obtidas em exames de ressonância magnética. Foram propostas diferentes estratégias construção de um banco de imagens adequados para a aplicação de técnicas de aprendizado profundo. Métricas de avaliação foram computadas sobre as estratégias propostas, e resultados de diagnóstico foram obtidos para os casos de indivíduo normal e com Alzheimer estabelecido. Também foi avaliado o caso de individuo com comprometimento cognitivo leve. Como parte da avaliação de desempenho, os resultados alcançados foram comparados com os resultados obtidos em outros trabalhos de pesquisa e que estão disponíveis na literatura.


  • Mostrar Abstract
  • Since Alzheimer’s disease is complex, difficult to diagnose, and can be mistaken with other forms of dementia, the specific diagnosis of the condition is yet unknown to science. Dementias are becoming more prevalent among the world’s population, which is also living longer, which partly explains the rise in Alzheimer’s disease diagnoses, the most common type of dementia. While neurological deterioration is a normal part of aging, Alzheimer’s disease quickens the process, putting a strain on public health services, causing early mortality, and causing tremendous inconvenience for the patient and his or her family. In this context, this work investigates artificial intelligence techniques that seek to aid in the diagnosis of Alzheimer’s disease, using clinical data and magnetic resonance images. Under licensing for use, primary information was obtained from Australian Imaging, Biomarker & Lifestyle Flagship Study of Ageing (AIBL), Alzheimer’s Disease Neuroimaging Initiative (ADNI), and the Open Access Series of Imaging Studies (OASIS). To treat the clinical data, a new method of attribute selection was proposed, reduced databases were created, and evaluation was performed by machine learning classification models. The use of images obtained from MRI scans was also investigated. Different strategies were proposed to build an image bank suitable for the application of deep learning techniques. Evaluation metrics were computed on the proposed strategies, and diagnostic results were obtained for the cases of normal and established Alzheimer’s individuals. The case of individuals with mild cognitive impairment was also evaluated. As part of the performance evaluation, the achieved results were compared with the results obtained in other research works that are available in the literature.

8
  • Victor do Prado Brasil
  • Effects of the Voltage Unbalance on Power Factors Considering the Fairness Perspective for Billing Purposes

  • Orientador : JOAO YOSHIYUKI ISHIHARA
  • MEMBROS DA BANCA :
  • JOAO YOSHIYUKI ISHIHARA
  • FRANCISCO DAMASCENO FREITAS
  • KLEBER MELO E SILVA
  • IVAN NUNES SANTOS
  • RODRIGO ANDRADE RAMOS
  • Data: 21/12/2023

  • Mostrar Resumo
  • O esperado crescimento de geradores fotovoltaicos distribuídos e veículos elétricos nos próximos anos traz desafios para a qualidade da energia em redes de distribuição, como o aumento potencial da distorção harmônica e desequilíbrio de tensão. Esses fenômenos têm vários efeitos indesejados nos equipamentos conectados à rede, especialmente motores de indução. No entanto, ainda não há um consenso sobre as definições corretas relacionadas à potência, como potência reativa e fator de potência (FP), bem como seus métodos de medição apropriados quando a tensão é desequilibrada ou não senoidal. Como resultado, medidores comerciais podem fornecer medidas diferentes para a mesma carga e condições de fornecimento, potencialmente levando a cobranças injustas de FP.

    Este trabalho avalia definições de FP existentes e seus métodos de medição, considerando a perspectiva de
    justiça para fins de faturamento em condições de tensão não senoidal e desequilibrada. Aqui, a noção de justiça
    é no sentido de que o medidor (construído com base em uma definição e método de medição específicos) sob
    um fornecimento não ideal deve levar a valores muito próximos aos obtidos caso estivesse submetido a tensões
    senoidais equilibradas ideais. Em outras palavras, uma definição justa de FP deve depender exclusivamente
    dos parâmetros da carga, não da qualidade do fornecimento. A investigação de justiça considerou simulações
    computacionais com a aplicação de diferentes condições de tensão no ponto de conexão de duas cargas de
    impedância constante, um motor de indução trifásico (MIT) e um conjunto desequilibrado de lâmpadas de
    diodo emissor de luz (LED). Em seguida, os resultados das simulações foram examinados experimentalmente
    usando uma fonte de tensão controlada, um motor de indução trifásico, uma carga mecânica (gerador DC e
    um resistor configurável), um computador e um sensor de velocidade. Por fim, uma investigação analítica foi
    realizada com uma carga de impedância constante.
    Os resultados das simulações e experimentos mostram que uma definição de FP que leva a uma cobrança
    justa para uma impedância constante equilibrada pode não proporcionar uma cobrança justa para um MIT
    ou um conjunto de lâmpadas LED quando alimentado com tensões de qualidade inferior. Além disso, este
    trabalho determinou as definições mais justas de FP e caracterizou a classe de seus algoritmos de medição
    correspondentes para medir o FP de uma impedância constante equilibrada e um MIT submetido a uma ampla gama de tensões desequilibradas não senoidais. Para as lâmpadas LED, nenhuma das definições existentes mostrou-se independente do fornecimento de tensão. Notavelmente, apesar de ser recomendado pelo IEEE Standard 1459-2010, o fator de potência efetivo não foi uma definição adequada para as condições de fornecimento investigadas aplicadas ao MIT.

    Os resultados da investigação analítica revelam que todas as definições investigadas são, na verdade, funções
    não lineares do fator de desequilíbrio de tensão (VUF) e das admitâncias da carga. Em outras palavras, utilizar
    essas cinco definições de FP na presença de desequilíbrios de tensão e carga pode levar a cenários de cobrança
    injusta tanto para a concessionária quanto para o cliente. Também são propostos novos fatores de admitância
    que podem ser utilizados para fins de faturamento, pois não dependem do desequilíbrio de tensão, mas apenas das características da carga.


  • Mostrar Abstract
  • Voltage unbalance and harmonic distortion have several undesired effects on the grid-connected
    equipment, especially induction motors. However, there is not yet a consensus regarding the correct
    power-related definitions, such as reactive power and power factor (PF), as well as their appropriate
    measurement methods when the voltage is unbalanced or nonsinusoidal. As a result, commercial
    meters can give different measurements for the same load and supply conditions, potentially leading
    to unfair PF charges.


    This work evaluates existing PF definitions and their measurement methods, considering the
    fairness perspective for billing purposes under unbalanced nonsinusoidal voltage conditions. Here,
    the fairness notion is in the sense that the meter (built based on a particular definition and measurement method) under a nonideal supply should lead to very close values as if it was submitted to
    ideal balanced sinusoidal voltages. In other words, a fair PF definition should depend exclusively
    on the load’s parameters, not supply quality. The fairness investigation considered computational
    simulations with the application of 35280 different voltage conditions at the point of connection
    of a constant impedance load and a three-phase induction motor (TIM) represented by their respective electrical models. In the sequel, the simulations’ findings were experimentally examined
    in 3978 voltage conditions employing a controlled voltage source, a three-phase induction motor,
    a mechanical load (DC generator and a variable resistor), a computer, and a speed sensor.


    The results show that a PF definition that leads to a fair billing for a constant impedance (the
    main load investigated in the literature) may not provide a fair billing for a TIM when supplied
    with poor quality voltages. Additionally, this work has determined the fairest PF definitions and
    characterized the class of their corresponding measurement algorithms for metering the PF of a
    balanced constant impedance and a TIM submitted to a wide range of unbalanced nonsinusoidal
    voltages. Notably, despite being recommended by IEEE Standard 1459-2010, the effective power
    factor was not an adequate definition for the investigated supply conditions applied to the TIM.

2022
Dissertações
1
  • Gabriel Luis de Araujo e Freitas
  • Novel Approach for Direct Methods in Medical Imaging using Compressive Sensing

  • Orientador : VINICIUS PEREIRA GONCALVES
  • MEMBROS DA BANCA :
  • VINICIUS PEREIRA GONCALVES
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • VINICIUS DE CARVALHO RISPOLI
  • HOMERO SCHIABEL
  • Data: 15/07/2022

  • Mostrar Resumo
  • A partir das tecnologias de imageamento médico, profissionais de saúde conseguem informações relevantes sobre o estado de um paciente para o planejamento e acompanhamento de seu tratamento. A Tomografia Computadorizada por raios-x (CT) e a Ressonância Magnética (MR) são duas das tecnologias mais bem consolidadas no meio. Estas técnicas permitem a obtenção de imagens anatômicas de planos específicos ou volumes. Apesar de a CT e a MR explorarem princípios físicos diferentes, ambas coletam medidas que podem ser modeladas como coeficientes da Transformada de Fourier da imagem a ser reconstruída. O processo de reconstrução refere-se a etapa de calcular a imagem desejada a partir das medidas adquiridas pelos equipamentos médicos. A aquisição geralmente requer que o paciente permaneça em uma mesma posição por longos períodos e, no caso da CT, há a emissão de radiação ionizante. Assim, é de interesse que tais procedimentos ocorram da forma mais segura e rápida possível. Uma maneira de abordar este problema é o desenvolvimento de algoritmos de reconstrução que consigam gerar imagens úteis para a atividade clínica usando uma quantidade reduzida de medidas. Conceitos de Compressive Sensing (CS) vem sendo adotados na elaboração de novos algoritmos para reconstrução de imagens médicas em vista de uma aquisição mais eficiente. Esta área de conhecimento estuda a reconstrução de sinais a partir de medidas incompletas por meio da resolução de sistemas lineares subdeterminados. O sinal de interesse é a solução cuja maior parte dos coeficientes é nula. Ou seja, considera-se que o sinal reconstruído possui uma representação esparsa em algum domínio conhecido. A minimização de `p (0 < p ≤ 1) é uma estratégia frequentemente explorada por algoritmos de CS. Adotar métricas `p com menores valores de p, apesar de recair em problemas não-convexos, pode possibilitar uma redução ainda maior de medidas. Imagens são sinais de grande dimensão. Por esta razão, técnicas de reconstrução que se baseiam em CS recorrem a métodos indiretos para a realização de operações matriciais, já que o armazenamento das matrizes que modelam o problema é inviável durante a execução dos algoritmos. A estabilidade e a convergência dos métodos indiretos são afetadas pela redução do valor de p de modo que esta estratégia não pode ser bem explorada ao executar as operações matriciais indiretamente.

    Neste contexto, a presente pesquisa desenvolve a Estrutura de Reconstrução Direta (DRS) para formação de imagens médicas por meio da composição de sinais de menor dimensão, que são obtidos através de minimização de `p. Inicialmente, apresentamos o formalismo matemático para implementações genéricas dessa estrutura, em que não se assume nenhuma operação específica para a composição. Em um segundo momento, derivamos o modelo matemático e o problema de minimização para uma formulação que compõe a imagem a partir de sinais unidimensionais, que contém a informação de uma linha de medidas no plano de frequências. Implementamos esta formulação específica do DRS usando o IRLS (Iteratively Reweighted Least Squares) como algoritmo de minimização e a pré-filtragem para a representação esparsa. Realizamos quatro experimentos numéricos com o objetivo de investigar o comportamento dos algoritmos de CS ao reduzirmos o valor de p e avaliar a performance do DRS em comparação às técnicas que usam método indireto. Em nossos testes usamos tanto sinais artificiais como dados de imagens reais. Os resultados apontam que o DRS reconstrói satisfatoriamente as imagens médicas em condições favoráveis de esparsidade. A pré-filtragem não obteve a mesma eficiência em esparsificar os sinais reconstruídos pelo DRS em comparação ao que é verificado no caso dos algoritmos que usam método indireto.


  • Mostrar Abstract
  • ABSTRACT Title: Novel Approach for Direct Methods in Medical Imaging using Compressive Sensing Author: Gabriel Luis de Araújo e Freitas Supervisor: Vinícius Pereira Gonçalves, PhD. Co-Supervisor: Cristiano Jacques Miosso, PhD. Graduate Program in Electronic and Automation Systems Engineering Brasília, XXXXX XXXX, 2022 With the support of medical imaging technologies, healthcare workers are provided with relevant information about a patient’s condition when planning and following up on treatment. X-ray Computed Tomography (CT) and Magnetic Resonance (MR) are two of the most consolidated technologies in the field. These techniques yield anatomical images of specific planes or volumes. Although CT and MR exploit different physical principles, both collect measurements that can be modeled as the Fourier Transform coefficients of the image to be reconstructed. The reconstruction procedure refers to the stage of computing the desired image from the measurements acquired by the medical equipment. The acquisition usually requires the patient to stay in the same position for long periods, and, in the case of CT, there is the emission of ionizing radiation. Thus, such procedures should take place as safely and quickly as possible. A possible approach to address this issue is the development of reconstruction algorithms that can generate meaningful images for clinical practice from a reduced amount of measurements. Concepts of Compressive Sensing (CS) have been adopted in the devising of new algorithms for medical imaging to achieve a more efficient acquisition. This area of knowledge studies the reconstruction of signals from incomplete measurements by solving underdetermined linear systems. The signal of interest is the solution whose most of the coefficients are null. That is, the reconstructed signal is assumed to have a sparse representation in a known domain. Minimizing `p (0 < p ≤ 1) is a strategy often exploited by CS algorithms. Adopting `p metrics with smaller values of p, even leading to non-convex problems, opens up the possibility of further reductions in the number of measurements. Images are large signals. For this reason, CS-based reconstruction techniques rely on indirect methods to perform matrix operations because the storage of the matrices that model the problem is impractical during the execution of the algorithms. The stability and convergence of indirect methods are affected by reducing the value of p so that this strategy cannot be well exploited when performing matrix operations indirectly.

    In this background, the present research devises the Direct Reconstruction Structure (DRS) for medical image formation through the composition of lower-dimensional signals, which are obtained through `p minimization. First, we present the mathematical formalism for generic implementations of this structure, which makes no assumptions about the operation for composition. Following, we derive the mathematical model and the minimization problem for a formulation that composes the image from onedimensional signals, which contain the information of a row of measurements in the frequency plane. We implemented that specific DRS formulation using the Iteratively Reweighted Least Squares (IRLS) as the minimization algorithm and prefiltering for sparse representation. We conducted four numerical experiments to investigate the behavior of the CS algorithms when reducing the value of p and evaluate the performance of DRS compared to techniques using an indirect method. In our tests, we used both artificial signals and actual image data. The results suggest that DRS can satisfactorily reconstruct medical images in good sparsity conditions. Prefiltering did not achieve the same effect in sparsifying the signals reconstructed by DRS compared to the case of algorithms using the indirect method. 

2
  • FREDERICO CARVALHO FONTES DO AMARAL
  • Information-Theoretic Analysis of Convolutional Autoencoders

  • Orientador : DANIEL GUERREIRO E SILVA
  • MEMBROS DA BANCA :
  • DANIEL GUERREIRO E SILVA
  • EDUARDO PEIXOTO FERNANDES DA SILVA
  • JUGURTA ROSA MONTALVÃO FILHO
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • Data: 31/08/2022

  • Mostrar Resumo
  • O uso de conceitos da Teoria da Informação para entender redes neurais profundas tem sido amplamente explorado nos últimos anos. O framework de Aprendizagem Teórica da Informação que resultou desse uso tem sido reconhecido como uma ferramenta potencialmente importante para compreender os mecanismos de aprendizagem empregados durante o processo de treinamento de redes neurais profundas, para o estudo dos quais ainda faltam métodos teóricos e sistemáticos de análise. A utilização de medidas estatísticas derivadas da Teoria da Informação, tais como entropia e informação mútua, permitiu um melhor entendimento de como a informação flui através das referidas redes durante seu treinamento. Também possibilitou a criação de métodos sistemáticos para projetar e analisar essas redes de forma mais rigorosa, o que, por sua vez, permite a criação de arquiteturas mais eficientes e robustas. Este trabalho visa investigar a possibilidade de aplicação de um método baseado no framework supracitado para a detecção automática da dimensão do gargalo de um autocodificador convolucional, cujo objetivo é encontrar a compressão ótima para as imagens a ele apresentadas.


  • Mostrar Abstract
  • The use of Information Theory concepts to understand deep neural networks has been extensively explored in recent years. The Information Theoretic Learning framework that resulted from such use has been acknowledged as a potentially important tool to comprehend the learning mechanisms employed during the deep neural networks’ training process, for the study of which theoretical and systematic methods of analysis are still lacking. The use of statistical measurements derived from Information Theory such as entropy and mutual information has allowed for a better understanding of how the information flows through the aforementioned networks during their training. It also enabled the creation of systematic methods to design and analyze these networks in a more rigorous manner, which in turn allows the creation of more efficient and robust architectures. This work aims to investigate the possibility of application of a method based on the aforementioned framework for the automatic detection of the bottleneck dimension of a convolutional autoencoder, whose objective is to find the optimal compression for the
    images presented to it.

3
  • Tarcísio Aurélio Bakaus
  • CONVIVÊNCIA ENTRE SISTEMAS IMT-2020 E TVRO EM BANDA C

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • UGO SILVA DIAS
  • DANIEL GUERREIRO E SILVA
  • HUGERLES SALES SILVA
  • RAUSLEY ADRIANO AMARAL DE SOUZA
  • Data: 13/09/2022

  • Mostrar Resumo
  • Este trabalho apresenta estudo de convivência entre sistemas IMT-2020 (sistemas de comunicação móveis de 5ª Geração - 5G), utilizando antenas com conformação de feixe e setoriais, e estações de recepção doméstica de televisão via satélite (TVRO) na Banda C. Demonstra-se que a maior diretividade das antenas com conformação de feixe utilizadas em sistemas IMT-2020, combinada com a utilização de filtros com rejeição de pelo menos 30 dB ou a utilização de receptores modernos de TVRO, com limiares de saturação superiores a -30 dBm, torna a convivência entre os sistemas IMT-2020 e TVRO possível, devido à baixa probabilidade de interferência prejudicial. Esses resultados são extremamente importantes, tendo em vista a entrada de sistemas móveis 5G no mercado e o número de receptores TVRO utilizados no Brasil que podem ter sua operação impactada pelo sistema entrante.


  • Mostrar Abstract
  • This work presents a study of coexistence between IMT-2020 systems (5th Generation mobile systems - 5G), using beamforming and sector antennas, and domestic satellite television reception stations (TVRO) in the C Band. It is proven that the greater directivity of beamforming antennas used in IMT-2020 systems, combined with the use of filters with rejection of at least 30 dB or the use of modern TVRO receivers, with saturation thresholds above -30 dBm, makes coexistence between IMT2020 and TVRO systems possible, due to the low probability of harmful interference. These results are extremely important, given the deployment of 5G mobile networks and the number of TVRO receptors, which could have their operations impacted by the new systems in operation in Brazil

4
  • ALINE ALVES SOARES THOMAZ
  • RECONSTRUÇÃO DE IMAGENS UTILIZANDO APRENDIZADO PROFUNDO E TÉCNICAS DE COMPRESSIVE SENSING

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • PEDRO GARCIA FREITAS
  • VINICIUS DE CARVALHO RISPOLI
  • Data: 23/09/2022

  • Mostrar Resumo
  • O uso de imagens de ressonância magnética (IMR) é amplamente difundido no diagnóstico de tumores e auxilia no tratamento de câncer. É sempre importante considerar que a qualidade das imagens obtidas é de suma importância para o diagnóstico de doenças. A Engenharia, através de linhas de pesquisa como o processamento de sinais, fornece meios de aumentar a robustez frente a interferências no processamento de imagens com ferramentas como Aprendizado Profundo. Dentro desta vertente, o uso de RNC’s, como a U-NET, alinhados ao Detecção de Compressão tem extrema valia no desenvolvimento de sistemas de diagnósticos mais acurados a doenças tão oprobriosas.


  • Mostrar Abstract
  • The use of magnetic resonance imaging (MRI) is widespread in the diagnosis of tumors and aids in the treatment of cancer. It is always important to consider that the quality of the images obtained is of paramount importance for the diagnosis of diseases. Engineering, through lines of research such as signal processing, provides ways to increase robustness against interference in image processing with tools such as Deep Learning. Within this aspect, the use of CNN’s, as U-NET, aligned with Compressive Sensisng is extremely valuable in the development of more accurate diagnostic systems for such oprobrious diseases.

5
  • Paulo Henrique de Castro Oliveira
  • Detecção de Tumores Cerebrais Utilizando Redes Neurais Convolucionais Guiadas por Mapas de Saliência

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • CRISTIANO JACQUES MIOSSO RODRIGUES MENDES
  • FÁTIMA NELSIZEUMA SOMBRA DE MEDEIROS
  • PEDRO GARCIA FREITAS
  • Data: 31/10/2022

  • Mostrar Resumo
  • O processo de diagnóstico de tumores cerebrais por ressonância magnética (RM) é muitas vezes demorado. Assim, uma análise rápida através de um sistema automatizado pode ajudar a melhorar as possibilidades de tratamento e otimizar os recursos hospitalares. Este trabalho propõe um método para a classificação de tumores cerebrais por meio da pré-seleção da região de tumor. Estimou-se a região de interesse usando algoritmos de atenção visual e em seguida as regiões com maior nível de energia foram inseridas em uma rede neural que as classificou quanto à existência de tumor cerebral. Pré-selecionando a região de interesse, em vez de usar a imagem inteira, o framework teve uma acurácia de classificação final de 91,68%, 92,58%, 92,69% e 93,4% com os modelos Resnet18, Resnet34, VGG16 e Alexnet, respectivamente. Uma vez que o espaço dimensional do imagem de entrada é reduzida, as redes neurais são capazes de capturar detalhes adicionais das regiões do tumor durante a etapa de treinamento. Este estudo demonstra a importância dos mapas de saliência para a identificação de regiões tumorais em imagens de ressonância magnética. Adicionalmente investigou-se o efeito de 5 artefatos nas métricas de classificação de uma rede neural: ruído Gaussiano, blurring, ringing, contraste e ghosting. Essa análise contou com a geração de 20 níveis de degradação com cada um dos 5 artefatos e o registro dos resultados de acurácia com cada um destes níveis. Concluiu-se que no cenário simulado com os artefatos: de ruído Gaussiano, blurring e ringing geraram deterioração houve um decréscimo exponencial das métricas de classificação, ao passo que as alterações gradativas de contraste e ghosting, diferentemente, geraram um comportamento aleatórios das métricas de classificação classificação.


  • Mostrar Abstract
  • O processo de diagnóstico de tumores cerebrais por ressonância magnética (RM) é muitas vezes demorado. Assim, uma análise rápida através de um sistema automatizado pode ajudar a melhorar as possibilidades de tratamento e otimizar os recursos hospitalares. Este trabalho propõe um método para a classificação de tumores cerebrais por meio da pré-seleção da região de tumor. Estimou-se a região de interesse usando algoritmos de atenção visual e em seguida as regiões com maior nível de energia foram inseridas em uma rede neural que as classificou quanto à existência de tumor cerebral. Pré-selecionando a região de interesse, em vez de usar a imagem inteira, o framework teve uma acurácia de classificação final de 91,68%, 92,58%, 92,69% e 93,4% com os modelos Resnet18, Resnet34, VGG16 e Alexnet, respectivamente. Uma vez que o espaço dimensional do imagem de entrada é reduzida, as redes neurais são capazes de capturar detalhes adicionais das regiões do tumor durante a etapa de treinamento. Este estudo demonstra a importância dos mapas de saliência para a identificação de regiões tumorais em imagens de ressonância magnética. Adicionalmente investigou-se o efeito de 5 artefatos nas métricas de classificação de uma rede neural: ruído Gaussiano, blurring, ringing, contraste e ghosting. Essa análise contou com a geração de 20 níveis de degradação com cada um dos 5 artefatos e o registro dos resultados de acurácia com cada um destes níveis. Concluiu-se que no cenário simulado com os artefatos: de ruído Gaussiano, blurring e ringing geraram deterioração houve um decréscimo exponencial das métricas de classificação, ao passo que as alterações gradativas de contraste e ghosting, diferentemente, geraram um comportamento aleatórios das métricas de classificação classificação.

6
  • Isabelle Queiroz de Oliveira Lopes
  • Estudo de um Sistema de Geração Distribuída a partir de uma Usina Fotovoltaica de 2.408 kWp Conectado a um Sistema Elétrico de Média Tensão

  • Orientador : FERNANDO CARDOSO MELO
  • MEMBROS DA BANCA :
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FERNANDO CARDOSO MELO
  • FRANCIS ARODY MORENO VASQUEZ
  • LUCAS PEREIRA PIRES
  • Data: 02/12/2022

  • Mostrar Resumo
  • O aumento dos investimentos em todo o mundo na diversificação da matriz energética baseada em fontes renováveis de energia, trouxe a expansão da capacidade instalada da geração distribuída (GD) ao longo dos anos. No Brasil, têm-se como principais fontes de GD a geração fotovoltaica e eólica. Com a diminuição dos preços dos módulos fotovoltaicos e das Unidades de Condicionamento de Potência (UCP) para a geração da energia fotovoltaica e a aplicação de uma política energética adequada, o país tem atraído investimentos públicos e privados para o aproveitamento da energia solar. Dessa forma, o presente trabalho realiza um estudo acerca da contribuição econômica de um sistema de minigeração distribuída, a partir de uma usina fotovoltaica de 2.408 kWp, conectado a um sistema elétrico de Média Tensão, bem como avalia seus parâmetros técnicos. Após a execução de simulações computacionais utilizando o software SAM, da NREL, com a minigeração distribuída em questão, o consumidor apresentou uma redução no consumo do primeiro ano de 45,72%. Além disso, o resultado anual obtido por simulação é de 4.382.247 kWh de energia, um fator de capacidade (FC) de 20,7%, taxa de desempenho (TD) de 82%, rendimento de energia (Yf) de 1.817 kWh/kWp, custo nivelado de energia (LCOE) de R$ 0,18/kWh e um período de retorno de 4,6 anos. Por fim, após o funcionamento da usina fotovoltaica por 8 meses, de abril a novembro, obtiveram-se os seguintes indicadores reais de desempenho técnicos e econômicos nesse período: produção energética de 2.517.047 kWh, representando uma diferença de 4,73% em relação a produção energética teórica simulada nesses referidos meses de operação, um fator de capacidade (FC) de 20,35%, taxa de desempenho (TD) de 84,39%, rendimento de energia (Yf) de 1.045,29 kWh/kWp e uma redução no consumo da unidade consumidora de 45,21%.


  • Mostrar Abstract
  • The increase in investments around the world in the diversification of the energy matrix based on renewable energy sources, brought the expansion of the installed capacity of distributed generation (DG) over the years. In Brazil, the main sources of DG are photovoltaic and wind generation. With the decrease in the prices of photovoltaic modules and Power Conditioning Units (PCU) for the generation of photovoltaic energy and the application of an adequate energy policy, the country has attracted public and private investments for the use of solar energy. Thus, the present work conducts a study on the economic contribution of a distributed minigeneration system, from a 2,408 kWp photovoltaic plant, connected to a medium voltage electrical system, as well as evaluates its technical parameters. After running computer simulations using NREL's SAM software, with the distributed mini-generation in question, the consumer showed a reduction in consumption in the first year of 45.72%. In addition, the annual result obtained by simulation is 4,382,247 kWh of energy, a capacity factor (CF) of 20.7%, performance ratio (PR) of 82%, energy yield (Yf) of 1,817 kWh/kWp, Levelized Cost of Energy (LCOE) of $3.51¢/kWh and a payback period of 4.6 years. Finally, after operating the photovoltaic plant for 8 months, from April to November, the following real technical and economic performance indicators were obtained in this period: energy production of 2,517,047 kWh, representing a difference of 4.73% in in relation to the theoretical energy production simulated in these months of operation, a capacity factor (CF) of 20.35%, performance ratio (PR) of 84.39%, energy yield (Yf) of 1,045.29 kWh/kWp and a reduction in consumption of the consumer unit of 45.21%.

7
  • Samuel Ribeiro Castro
  • Filmes espessos de PEDOT:PSS/KDP/PVA para uso em atuadores orgânicos flexíveis

  • Orientador : ARTEMIS MARTI CESCHIN
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • ALEXANDRE RICARDO SOARES ROMARIZ
  • ARTEMIS MARTI CESCHIN
  • NIZAMARA SIMENREMIS PEREIRA
  • Data: 13/12/2022

  • Mostrar Resumo
  • Como alternativa para os processos de atuação convencionais são utilizados
    atuadores poliméricos. Eles podem apresentar características como leveza, boa
    mimetização, biocompatibilidade e suavidade, não encontradas nos atuadores
    convencionais. A confecção de atuadores poliméricos, entretanto, muitas vezes apresenta
    processos de fabricação que utilizam solventes agressivosao meio ambiente. Além disso,
    uma das dificuldades encontradas na fabricação e uso de atuadores poliméricos é a
    desagregação das partes. Isso acontece principalmente no caso dos atuadores depositados
    sobre substratos.


    Neste trabalho é apresentado o processo de fabricação de um filme espesso de
    poli (3, 4 - etileno dioxitiofeno) poli (estireno sulfonado) (PEDOT:PSS), dihidrogeno
    fosfato de Potássio (KDP) e álcool polivinílico (PVA) para possível uso em atuadores.
    Todos os componentes são solúveis em água.


    A partir da investigação dos componentes da solução para um atuador
    polimérico com as características desejadas, foram elaboradas sete metodologias de
    preparação distintas. Para observar-se qual o grau de influência da ordem de adição dos
    componentes na solução no desempenho final dos filmes. Assim, foi possível elaborar
    um método de construção aliado às análises do filme espesso formado.
    Foram buscadas características como: simplicidade de reagentes e processos,
    não toxicidade de solventes, autossustentação do filme espesso.
    Os filmes formados a partir da deposição da solução de PEDOT:PSS/KDP/PVA
    foram caracterizados em sua morfologia, espessura, resistência de folha, composição e
    deslocamento.


    Ao fim do trabalho pode-se obter um filme capaz de deslocar 2mm sob tensão
    DC de até 4,2 V.


  • Mostrar Abstract
  • Polymeric actuators are used as an alternative to conventional actuation
    processes. They can present characteristics such as lightness, good mimicry,
    biocompatibility and softness, not found in conventional actuators. The manufacture of
    polymeric actuators, however, often has manufacturing processes that use
    environmentally aggressive solvents. In addition, one of the difficulties encountered in
    the manufacture and use of polymeric actuators is the disaggregation of the parts. This
    happens mainly in the case of actuators deposited on substrates.


    This work presents the manufacturing process of a thick film of poly (3, 4 -
    ethylene dioxythiophene) poly (styrene sulfonate) (PEDOT:PSS), potassium dihydrogen
    phosphate (KDP) and polyvinyl alcohol (PVA) for possible use in actuators. All
    components are water soluble.


    From the investigation of the components of the solution for a polymeric
    actuator with the desired characteristics, seven different preparation methodologies were
    developed. To observe the degree of influence of the addition order of the components
    in the solution. Thus, it was possible to perform a construction method allied to the
    analysis of the formed thick film.


    Characteristics such as: simplicity of reagents and processes, non-toxicity of
    solvents, self-support of the thick film were sought.
    The films formed from the deposition of the PEDOT:PSS/KDP/PVA solution
    were characterized in terms of their morphology, thickness, sheet resistance,
    composition and displacement.


    At the end of the work, it was possible to obtain a thick film capable of
    displacing 2 mm under 4.2 V DC voltage.

8
  • Caio Cesar Goulart Bomfim
  • ANÁLISE DA POTÊNCIA DE RECEPÇÃO DO BEACON DO SGDC EM BANDA KA NA PRESENÇA DE CHUVA

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • GILBERTO ARANTES CARRIJO
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • RENATO ALVES BORGES
  • UGO SILVA DIAS
  • Data: 15/12/2022

  • Mostrar Resumo
  • Os sistemas de comunicação via satélite têm tido um crescimento vertiginoso nos últimos anos devido ao surgimentos e expansão de novas tecnologias que demandam cada vez mais banda. Essa constante evolução tem impulsionado a indústria no sentido de desenvolver tecnologias de comunicação com maior capilaridade, eficiência e inteligência. Pautado nesta constatação, este trabalho realiza a análise dos efeitos da atenuação devido à chuva em banda Ka no enlace de recepção da antena gateway de Brasília. Inicialmente, descreve-se a penetrabilidade do acesso à internet nas regiões do Brasil e o atual cenário das comunicações via satélite no país. É realizada a contextualização histórica dos sistemas espaciais, a descrição das órbitas e aplicações e a explanação sobre os sistemas espacial, de controle, usuário e a arquitetura do sistema SGDC, incluindo a cadeia de rastreamento e os recursos utilizados para extração e tratamento dos dados manipulados. Medidas do sinal do beacon foram obtidas por meio da gateway de Brasilia durante todo o ano de 2021 e tais medidas embasaram o desenvolvimento deste trabalho. Volumes pluviométricos mensais foram obtidos entre os anos de 2010 e 2020 foram confrontados com os volumes verificados no ano de 2021 a fim de constatar a representatividade dos dados de potência recebida do beacon obtidos para a elaboração deste trabalho. Por meio dos dados obtidos, propôs-se o valor de clear sky a partir do qual foi construída uma tabela descrevendo tempos de atenuação, número de eventos e porcentagem de tempo anual para a faixa de atenuação 1 a 30 dB. Estuda-se ainda a correlação entre a quantidade de eventos de chuva e a porcentagem de tempo em que o sinal do beacon é atenuado abaixo do nível de clear sky durante as estações do ano. Por fim, obtémse uma tabela que considera os intervalos de tempo de 30-60, 60-120, 120-300 e 300-1200 segundos, por nível de atenuação considerado. Utilizando-se desses dados, é demonstrado o comportamento temporal anual de atenuação do sinal de beacon por faixa de atenuação e é proposto um modelo matemático capaz de representar, com uma boa precisão, o intervalo de referência considerado, que é o intervalo de 30-60 segundos. Além disso, são propostos fatores de escalonamento capazes de reduzir os demais intervalos estudados, ao intervalo de referência considerado. A presente investigação propõe um modelo estatístico capaz de representar fidedignamente o comportamento anual do sinal de beacon na presença de chuva, na região de Brasilia. Os resultados comprovam a aplicabilidade e precisão do modelo proposto no dimensionamento de sistemas de radiofrequência que operam em banda Ka.


  • Mostrar Abstract
  • The satellite communication systems has had a vertiginous growth in recent years due to the emergence and expansion of new technologies that demand more and more bandwidth. This constant evolution has driven the industry to develop communication technologies with higher capillarity, efficiency and intelligence. Based on this finding, this work performs the analysis of the effects of attenuation due to rain in Ka band on the reception link of the gateway antenna in Brasilia. Initially, the penetrability of internet access in the regions of Brazil and the current scenario of satellite communications in the country are described. The historical contextualization of the space systems, the description of the orbits and its applications and the explanation of the space, control, user segments and the architecture of the SGDC system are carried out, including the tracking chain and the resources used to extract and process the manipulated data. Beacon signal measurements were obtained through the Brasilia gateway throughout 2021 and such measurements supported the development of this work. Monthly rainfall volumes were obtained between the years 2010 and 2020 and were compared with the volumes verified in the year 2021 in order to check the representativeness of the power data measured from the beacon. Through the data obtained, the clear sky value was proposed, from which a table was constructed describing attenuation times, number of events and percentage of annual time for the attenuation range 1 to 30 dB. The correlation between the amount of rain events and the percentage of time in which the beacon signal is attenuated below the clear sky level during seasons, is also studied. Finally, a table is obtained that considers the time intervals of 30-60, 60-120, 120-300 and 300-1200 seconds, per considered attenuation level. Using these data, the annual temporal behavior of attenuation of the beacon signal by attenuation range is demonstrated and a mathematical model capable of representing, with good precision, the reference interval considered, which is the interval of 30-60 seconds. In addition, scaling factors capable of reducing the other studied intervals to the reference interval are proposed. The present investigation proposes a statistical model capable of reliably representing the annual behavior of the beacon signal in the presence of rain, in the region of Brasilia. The results prove the applicability and precision of the proposed model in the dimensioning of radiofrequency systems that operate in Ka band.

9
  • JOSÉ RICARDO DA ASSUNÇÃO FERREIRA
  • Atualização da Tecnologia LMR para a LTE em Aplicações das Forças Armadas

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • UGO SILVA DIAS
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • GEORGES DANIEL AMVAME NZE
  • TERCIO BRUM
  • Data: 15/12/2022

  • Mostrar Resumo
  • Este trabalho apresenta uma investigação prática dos serviços que podem ser disponibilizados com a tecnologia 4G/LTE em proveito dos órgãos da Defesa Nacional, neles englobados as Forças Armadas e os Órgão de Segurança Publicada. Nesse sentido, foi realizado e apresentado um estudo a respeito das características específicas dos serviços de telefonia celular para a segurança pública. Características como segurança e continuidade. Nesse contexto, analisou-se também quais funcionalidades seriam possíveis serem implementadas pela tecnologia 4G/LTE. Por outro lado, verificou-se a integração dessa tecnologias aos sistemas já existentes, verificando as possibilidades de coexistência entre os sistemas. Além disso, realizou-se um estudo de caso para verificar a possibilidade de instalação de uma estrutura de banda larga para utilização dos Órgãos de Segurança Pública com base na implantação realizada nos Estados Unidos. Finalizando, foram realizados testes com os sistemas de telefonia celular privada 4G do Exército com o objetivo de coletar dados para a conclusão do presente trabalho. Esses resultados mostraram um excelente desempenho do ponto de vista de atendimento as demandas das Forças Armadas nos quesitos de segurança, confiabilidade e continuidade.


  • Mostrar Abstract
  • This work presents a practical investigation of the services that can be made available with the 4G/LTE technology for the benefit of National Defense bodies, including the Armed Forces and Published Security Agency. In this sense, a study was carried out and presented regarding the specific characteristics of cellular services for public safety. Features like security and continuity. In this context, it was also analyzed which functionalities would be possible be implemented by 4G/LTE technology. On the other hand, the integration of these technologies existing systems, verifying the possibilities of coexistence between the systems. Furthermore, a case study was carried out to verify the possibility of installing a broadband structure for use by Public Safety Agencies based on the implementation carried out in the United States. Finally, tests were carried out with the Army's private 4G cell phone systems with the objective of collecting data for the conclusion of this work. These results showed an excellent performance from the point of view of meeting the demands of the Armed Forces in terms of security, reliability and continuity.


10
  • Thiago Aguiar Soares
  • SPECTRUM AVAILABILITY IN THE VHF AND UHF BANDS FOR THE DEPLOYMENT OF SECOND-GENERATION DIGITAL TERRESTRIAL TELEVISION SYSTEMS IN BRAZIL

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • CRISTIANO AKAMINE
  • HUGERLES SALES SILVA
  • LEONARDO AGUAYO
  • UGO SILVA DIAS
  • Data: 20/12/2022

  • Mostrar Resumo
  • Digital Terrestrial Television (DTT) services still play an important role in Brazil in delivering media content to a large number of people. Besides the growing penetration of broadband connectivity and overthe-top services, television broadcasting is still the main platform for providing information, entertainment, and culture, especially in economically less favored regions. Furthermore, second-generation DTT systems are already internationally standardized and in operation in many countries. These new technologies provide essential enhancements such as High Definition (UHDTV) video transmissions with High Dynamic Range (HDR) and Wide Color Gamut (WCG) capabilities, immersive audio techniques, and new generations of middleware platforms, which will bring new converged broadcasting-broadband experiences to viewers. To allow the evolution of DTT services, spectrum availability should be deemed for deploying new technologies. Hence, in this work we study the current and future spectrum availability of the 174-216 MHz VHF band and 470-698 MHz UHF band in Brazil for the deployment of second-generation Digital Terrestrial Television Systems, which are being studied under the “TV 3.0 Project” initiative, coordinated by The Brazilian Digital Terrestrial Television System Forum (SBTVD Forum). Coverage simulations using the Recommendation ITU-R P.1812 were computed for all expected operating television stations, in different scenarios, to estimate the spectrum usage over the Brazilian territory. Results indicate that even after the analog TV switch-off there will be no spectrum availability in the main metropolitan regions for simulcast transmissions between the current ISDB-Tb System and the future TV 3.0. Hence, hybrid approaches should be implemented to smoothly introduce a new digital television system in Brazil.


  • Mostrar Abstract
  • Digital Terrestrial Television (DTT) services still play an important role in Brazil in delivering media content to a large number of people. Besides the growing penetration of broadband connectivity and overthe-top services, television broadcasting is still the main platform for providing information, entertainment, and culture, especially in economically less favored regions. Furthermore, second-generation DTT systems are already internationally standardized and in operation in many countries. These new technologies provide essential enhancements such as High Definition (UHDTV) video transmissions with High Dynamic Range (HDR) and Wide Color Gamut (WCG) capabilities, immersive audio techniques, and new generations of middleware platforms, which will bring new converged broadcasting-broadband experiences to viewers. To allow the evolution of DTT services, spectrum availability should be deemed for deploying new technologies. Hence, in this work we study the current and future spectrum availability of the 174-216 MHz VHF band and 470-698 MHz UHF band in Brazil for the deployment of second-generation Digital Terrestrial Television Systems, which are being studied under the “TV 3.0 Project” initiative, coordinated by The Brazilian Digital Terrestrial Television System Forum (SBTVD Forum). Coverage simulations using the Recommendation ITU-R P.1812 were computed for all expected operating television stations, in different scenarios, to estimate the spectrum usage over the Brazilian territory. Results indicate that even after the analog TV switch-off there will be no spectrum availability in the main metropolitan regions for simulcast transmissions between the current ISDB-Tb System and the future TV 3.0. Hence, hybrid approaches should be implemented to smoothly introduce a new digital television system in Brazil.

11
  • Raphael Alves Bruce
  • PROPOSIÇÃO DE UM MODELO DE BLOCKCHAIN PARA OPERAÇÕES INTERBANCÁRIAS

  • Orientador : KLEBER MELO E SILVA
  • MEMBROS DA BANCA :
  • DANIEL GUERREIRO E SILVA
  • UGO SILVA DIAS
  • GEORGES DANIEL AMVAME NZE
  • DANIEL ALVES DA SILVA
  • Data: 20/12/2022

  • Mostrar Resumo
  • A tecnologia blockchain surgiu como o principal mecanismo das criptomoedas e por mantér um banco de dados distribuído que depende de processos de consenso para a persistência dos dados passou a ter seu uso considerado em várias outras aplicações, principalmente devido às suas características de disponibilidade, segurança e descentralização. O momento para a tecnologia também se mostra bastante favorável devido aos cenários atuais em que negocialmente se exige cada vez mais integração e compartilhamento de dados entre parceiros de negócios. Como a rede peer-to-peer blockchain provê um ledger distribuído entre os nós participantes compartilhado com transparência, imutabilidade e confiabilidade, logo os investimentos nesta aumentaram, credenciandoa como solução tecnológica. Considerando esta abordagem, essa dissertação propõe um modelo de uso de blockchain de consórcio para comunicação de operações interbancárias entre entidades financeiras parceiras, substituindo interfaces legadas baseadas no processamento de arquivos em lotes. Este modelo tem preocupação com escalabilidade e desempenho e possui como principais contribuições: a) a utilização do Patricia Merkle Tree para estabelecer um processo de encadeamento dos blocos na cadeia que permita melhor escalabilidade quando comparado com às soluções mais disseminadas em blockchain, b) a proposição de um mecanismo de consenso híbrido, que mantenha as vantagens e supere os problemas do prova de autoridade e da tolerência às falhas bizantinas práticas (PBFT) principalmente, tendo desempenho superior ao mecanismo de prova de trabalho, geralmente implementado nos blockchains, e c) a adoção de diretrizes para privacidade de dados adicional para manter o sigilo das informações em um contexto de transparência e distribuição, atendendo a exigência de que todos os dados pessoais e informações sensíveis permaneçam confidenciais. E camada de auditoria para mantér as regras acordadas pelo consórcio com a utilização de smart contracts para monitoramento automático e permanente. A proposta é validada com o desenvolvimento e testes de um protótipo correspondente, considerando a avaliação de funcionalidades propostas e definidas para o modelo, bem como o desempenho em relação aos mecanismos geralmente escolhidos nas implementações mais comuns em blockchain.


  • Mostrar Abstract
  • Blockchain technology has emerged as the primary mechanism of cryptocurrencies and by maintaining a distributed database that relies on consensus processes for data persistence it has been considered for use in many other applications, mainly due to its characteristics of availability, security and decentralization. The timing for technology is also very favorable due to current scenarios where business integration and data sharing between business partners is increasingly required. As the peer-to-peer blockchain network provides a ledger distributed among the participating nodes that is shared with transparency, immutability and reliability, investments in it have increased, crediting it as a technological solution. Considering this approach, this dissertation proposes a model for using consortium blockchain to communicate interbank transactions between partner financial entities, replacing legacy interfaces based on batch file processing. This model is concerned with scalability and performance and has as main contributions: a) the use of Patricia Merkle Tree to establish a chaining process that allows better scalability when compared to the most widespread blockchain solutions, b) the proposition of a hybrid consensus engine that retains the advantages and overcomes the problems of proof of authority and practical byzantine fault tolerance (PBFT) primarily, outperforming the proof of work mechanism, generally implemented in blockchains, and c) adoption additional data privacy guidelines to maintain the confidentiality of information in a context of transparency and distribution, meeting the requirement that all personal data and sensitive information remain confidential. Establishing an audit layer to maintain the rules agreed by the consortium with the use of smart contracts for automatic and permanent monitoring. The proposal is validated by the development and testing of its corresponding prototype, considering the evaluation of the proposed and defined functionalities for the model, as well as the performance in comparasion to the mechanisms generally chosen in the most common blockchain implementations.

12
  • DANIEL CARVALHO DE SOUSA
  • Integration and Design of a Reconfigurable Reflectarray antenna with an RF LoRa-based system for IoT multi-protocol applications

  • Orientador : SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • MEMBROS DA BANCA :
  • SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • DANIEL COSTA ARAUJO
  • DANIEL ORQUIZA DE CARVALHO
  • BAYANMUNKH ENKHBAYAR
  • Data: 23/12/2022

  • Mostrar Resumo
  • O presente trabalho consiste no desenvolvimento de uma antena do tipo Reflectarray(RA) ativa
    reconfigurável. O elemento ativo utilizado nessa antena é o diodo PIN, utilizado para o controle
    da distribuição de fase do elemento irradiante, que consiste de uma estrutura planar retangular do
    tipo microfita.


    A antena foi desenvolvida para aplicações de comunicação via satélite operando na banda Ku,
    devido à sua versatilidade, uma vez que permite o apontamento digital, otimização e conformação de feixe, por meio de diversas técnicas de beamforming (formação de feixe). A técnica de
    otimização convexa é discutida e implementada para o ajuste de fase e otimização de lóbulos secundários. Essa antena pode ser utilizada tanto em satélites de baixa órbita, quanto em estações
    rádio-base.


    Devido às características da topologia apresentada, se faz necessário não só o desenvolvimento
    de circuitos de controle microcontrolados, mas também o projeto das fontes de alimentação eficientes. Nesse sentido, uma nova abordagem para o circuito de controle é apresentada, que foi
    validada por meio de um protótipo funcional.


    Fazendo-se uso da possibilidade de transmissão de dados em longas distâncias, por meio
    dos satélites de baixa órbita, um sistema baseado no protocolo de transmissão LoRaWAN. Esse
    sistema foi projetado visando maximizar o alcance da comunicação entre dois dispositivos LoRa.


  • Mostrar Abstract
  • The present work consists of the development of an active reconfigurable Reflectarray(RA)
    antenna. The active element used in the antenna is the PIN diode, which controls the phase distribution of the antenna. The radiating element is based on a flat rectangular microstrip structure.


    This antenna was developed for satellite communications operating in the Ku band. Its versatility allows for digital beam-scanning, optimization and beamforming, through various techniques,
    such as the convex optimization technique, which is applied for phase-optimization and sidelobe
    minimization. This antenna can be used either in low-orbit satellites or base stations.


    Due to this topology characteristics, the design of the efficient cell control circuit, and efficient
    power supply are desirable. In this sense, a new approach to the control circuit is shown, which
    was validated through a functional prototype.


    Due to the possibility of transmitting data over long distances, through low-orbit satellites,
    a system based on the LoRaWAN protocol was designed. This system aims to maximize the
    communication range between two LoRa devices.

13
  • Guilherme Felix de Andrade
  • Ku Band RF Front End Receiver of a Mobile Terminal for Satellite Communication and IoT Solutions

  • Orientador : SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • MEMBROS DA BANCA :
  • SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • DANIEL ORQUIZA DE CARVALHO
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • GEFESON MENDES PACHECO
  • Data: 30/12/2022

  • Mostrar Resumo
  • Os sistemas de comunicação via satélite precisam recuperar o sinal transmitido, processá-
    lo adequadamente e adicionar o mínimo possível de ruído ao sistema, pois o sinal é bastante
    atenuado pelo espaço livre e pela chuva. Este trabalho apresenta o desenvolvimento, simulações sistêmicos e medições do receptor heteródino de rádio frequência para um terminal
    móvel de comunicação via satélite operando na banda Ku, juntamente com um sistema baseado na comunicação LoRa para dispositivos e adição de funcionalidades IoT ao produto.
    Além disso, é apresentado o projeto e procedimentos de design de filtros passivos, mixer e
    LNA utilizando o software Advanced Design System. Este trabalho apresenta uma compila-
    ção de subitens de três projetos cujo o foco é comunicação satélite e LoRa, desenvolvido ao
    longo do mestrado.



  • Mostrar Abstract
  • Satellite communication systems must recover the transmitted signal, process it correctly,
    and add as little noise as possible, as free space and rain significantly attenuate the signal.
    This work presents the heterodyne radio frequency receiver development, systemic simulations, and measurements for a mobile satellite communication terminal operating in the
    Ku band, along with a system based on the LoRa communication for devices and adding
    IoT functionality to the product. In addition, the passive filters, mixer, and LNA was projected and designed using Advanced Design System software. The work is part of a larger
    project, which deals with the design of the complete mobile terminal. This work presents a
    compilation of sub-items from three projects focused on satellite communication and LoRa,
    developed throughout the master’s degree.


Teses
1
  • Murilo Coutinho Silva
  • Desenvolvimento, Difusão e Criptoanálise de Primitivas Criptográficas Simétricas

  • Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
  • MEMBROS DA BANCA :
  • ANDERSON CLAYTON ALVES NASCIMENTO
  • FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
  • GEORGES DANIEL AMVAME NZE
  • JULIO CÉSAR LÓPEZ HERNANDEZ
  • RAFAEL TIMOTEO DE SOUSA JUNIOR
  • Data: 25/11/2022

  • Mostrar Resumo
  • Nessa tese de doutorado, novas técnicas de criptografia, criptoanálise e de desenvolvimento de algoritmos são estudadas e propostas. Resumidamente, os seguintes resultados são alcançados: • Uma técnica denominada Análise de Difusão Contínua (CDA) é proposta. Utilizandose essa técnica é possível se estudar, desenvolver e comparar algoritmos criptográficos. Com CDA é possível generalizar tais algoritmos a partir da transformação dos bits discretos em probabilidades, de tal forma que o algoritmo é generalizado em uma função matemática contínua. A partir disso, propõe-se três novas métricas de difusão a serem utilizadas nesse novo espaço contínuo, a saber: o Fator de Avalanche Contínuo (CAF), a Métrica de Neutralidade Contínua (CNM), e o Fator de Difusão (DF). Além disso, mostra-se que essas métricas de difusão podem ser utilizadas para avaliar e comparar algoritmos criptográficos. Em particular, o Fator de Difusão pode ser usado para comparar a difusão sem a necessidade de se reduzir o número de rodadas dos algoritmos criptográficos, algo inédito até então na área de criptografia. • Um novo método para avaliar a segurança de algoritmos criptográficos em relação à criptoanálise diferencial, denominado ColoreD, é proposto. Com o ColoreD, ao invés de se considerar apenas diferenças binárias (“pretas e brancas”), passa a ser possível o uso de diferenças contínuas. Isso é possível a partir do uso das generalizações contínuas que permitem que se considere diferenças menores do que 1 bit. Adicionalmente, com o método ColoreD, propõe-se novas ferramentas tais como a Criptoanálise Diferencial Contínua (CDC). Esta ferramenta viabiliza a implementação de ataques de recuperação de chave sem a necessidade de redução do número de rodadas para algoritmos complexos. Para demonstrar a utilidade dessa proposta, utiliza-se o ferramental ColoreD para estudar e comparar os algoritmos AES e PRESENT, duas cifras de bloco bastante conhecidas. Tal análise, leva a conclusão de que o algoritmo AES é mais seguro do que o PRESENT quando se considera a criptoanálise diferencial. Em particular, demonstra-se que o algoritmo PRESENT necessitaria de ao menos 37 rounds para atingir a mesma margem de segurança do AES. Finalmente, aplicando-se o CDC, é proposto um ataque capaz de recuperar chave desses algoritmos, a partir do uso de suas generalizações contínuas e de pares de entradas com diferenças bem pequenas. Novas técnicas de criptoanálise contra algoritmos do tipo ARX são propostas. Primeiramente, uma nova forma de se gerar aproximações lineares é apresentada. Com tal técnica, demonstra-se ser possível encontrar aproximações lineares mais eficientes em cifras tipo ARX. Com tal técnica, propõe-se as primeiras aproximações lineares explicitamente derivadas para 3 e 4 rounds da cifra de fluxo ChaCha. Como consequência, novos ataques contra o ChaCha são apresentados, sendo possível reduzir a complexidade dos ataques para 2 51 e 2 224 bits de complexidade, contra 6 e 7 rodadas da cifra ChaCha, respectivamente. Adicionalmente, propõe-se uma nova técnica denominada Expansões Lineares Bidirecionais (BLE), capaz de aumentar a eficácia de distinguishers do tipo linear-diferencial. Usando a BLE, apresenta-se os primeiros distinguishers da literatura alcançando 7 e 8 rounds do algoritmo Salsa20 com complexidades de 2 108.98 e 2 215.62, respectivamente. Finalmente, demonstra-se que usando os novos diferenciais obtidos via BLE, é possível melhorar ataques de recuperação de chave do tipo Probabilistic Neutral Bits (PNB) contra 7 e 8 rodadas do algoritmo Salsa20, obtendo complexidades de 2 122.63 e 2 219.56, respectivamente. • Novas cifras de fluxo são propostas. Primeiramente, demonstra-se que é possível aplicar uma alteração bastante simples no algoritmo ChaCha, apenas pela alteração dos parâmetros de rotações na função de quarto de round (QRF), tornando o ChaCha mais seguro contra todos os ataques conhecidos sem perda de performance. De fato, com tais mudanças, deixa de ser possível quebrar 7 rounds do ChaCha, restando apenas ataques contra 6 rounds. Na sequência, a cifra Forró é proposta. Demonstra-se que o algoritmo Forró é capaz de atingir segurança maior do que a do ChaCha mesmo aplicando uma menor quantidade de operações matemáticas. Assim, conclui-se que 5 rounds do Forró é tão seguro quanto 7 rounds do ChaCha e que o algoritmo Forró é mais eficiente quando implementado em diversos tipos de processadores.


  • Mostrar Abstract
  • In this PhD thesis, we study and propose new cryptographic techniques and algorithms. The following results are achieved: • We propose a new technique called Continuous Diffusion Analysis (CDA) that can be used to study, design, and compare of cryptographic algorithms. CDA allows us to generalize cryptographic algorithms by transforming the discrete bits into probabilities such that the algorithm is generalized into a continuous mathematical function. We propose three new metrics to measure the diffusion in this generalized continuous space, namely the Continuous Avalanche Factor, the Continuous Neutrality Measure, and the Diffusion Factor. In addition, we show that these measures can be used to analyze the diffusion of cryptographic algorithms, in particular, the Diffusion Factor can be used to compare the diffusion without the need of reducing the number of rounds or considering a small subset of bits. • We propose a new framework, named ColoreD, to evaluate security against differential cryptanalysis. In the proposed framework, instead of considering only binary (black and white) differences, we allow the use of Continuous Differences (ColoreD), which is possible using of continuous generalizations of cryptographic algorithms, allowing us to use differences smaller than one bit. ColoreD incorporates not only continuous generalization of algorithms, but we also propose new theoretical tools such as the Continuous Differential Cryptanalysis (CDC). This tool provides us with a theoretical framework that allows us to mount key recovery attacks without the need of reducing the number of rounds. To showcase the usefulness of the new framework, we use ColoreD to study and compare AES and PRESENT ciphers. This analysis leads to the conclusion that AES is safer than PRESENT when considering differential cryptanalysis, and that PRESENT would need at least 37 rounds to achieve the same security margin of AES. Additionally, applying CDC to both AES and PRESENT we show that is possible to mount a key recovery to both algorithms when considering inputs with very small continuous differences. • We propose new techniques to improve cryptanalysis against ARX ciphers. First, we present a new way to generate linear approximations, which can be used to find better linear approximations in ARX ciphers. Using this technique, we present the first explicitly derived linear approximations for 3 and 4 rounds of ChaCha and, as a consequence, it enables us to improve the recent attacks against ChaCha. More precisely, we our attacks have complexity of 2 51 and 2 224 against 6 and 7 rounds of ChaCha, respectively. Additionally, we propose a technique called Bidirectional Linear Expansions (BLE) to improve the efficacy of differential-linear distinguishers. Using the BLE, we propose the first differential-linear distinguishers ranging 7 and 8 rounds of Salsa20, with time complexities of 2 108.98 and 2 215.62, respectively. Additionally, we show that using the differentials obtained, it is possible to improved Probabilistic Neutral Bits (PNB) key-recovery attacks against 7 and 8 rounds of Salsa20, obtaining time complexities of 2 122.63 and 2 219.56, respectively. • We propose the design of new stream ciphers. First, we show that a simple modification in the algorithm ChaCha, namely changing the rotation distances in the Quarter Round Function, makes it more secure against all the most effective known attacks without any loss in performance. In fact, we show that with these changes, it is only possible to break up to 6 rounds of ChaCha. Therefore, it would be no longer possible to break 7 rounds of ChaCha with the best-known attacks. Finally, we propose a new stream cipher called Forró. We show that Forró is able to achieve more security than Salsa and ChaCha using fewer arithmetic operations. We show that the security of 5 rounds of Forró is equivalent to 7 rounds of ChaCha and that Forró is faster when implemented in several different processors.

2
  • Yarisley Peña Llerena
  • Controller Placement and Radio Resource Allocation for D2D Communications in 5G Wireless Networks

  • Orientador : PAULO ROBERTO DE LIRA GONDIM
  • MEMBROS DA BANCA :
  • PAULO ROBERTO DE LIRA GONDIM
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • CARLOS HUMBERTO LLANOS QUINTERO
  • LUIZ CARLOS PESSOA ALBINI
  • RENATO MARIZ DE MORAES
  • Data: 20/12/2022

  • Mostrar Resumo
  • Next generation cellular networks promise faster data transmission, higher bandwidth, and
    lower latency and the Device-to-Device (D2D) communication technology helps make such promises
    a reality, due to proximity services (ProSe) of communication devices. The advantages of such
    communication include higher throughput, enhanced data rate, lower latency and energy consumption, fairness, and improved spectral efficiency. This research focuses on the influence of
    the management of D2D communications on a cellular network. Two problems, namely Controller Placement Problem (CPP) and Radio Resource Allocation (RRA) were studied.
    The technique proposed for solving the former involves the obtaining of number of D2D communications to be managed and then number of controllers required, their physical location in
    the cellular infrastructure, and the best evolved NodeB (eNB) assignment for them. The problem
    was modeled as an optimization problem one and Artificial Bee Colony (ABC) and Ant Colony
    System with External Memory (ACS-EM) meta-heuristics solved it. They were compared with
    Ant Colony System (ACS) and Particle Swarm Optimization (PSO) algorithms, and the analysis
    revealed the computational complexities of ABC and PSO are lower than of ACS-EM and ACS.
    However, ABC and ACS-EM showed better performance in solving the problem, with characteristics that enable a more efficient exploration of the search space, thus avoiding sub-optimal
    solutions. The best results were obtained with ABC, followed by ACS-EM, then ACS, and lastly
    PSO.
    Regarding the RRA problem, two solution methods were proposed towards obtaining the
    number of D2D connections admitted in the network. In the first RRA solution method, the optimization problem is solved by the Social-aware RRA Artificial Bee Colony (SA-RRA-ABC),
    considering the social relationship between users, a feedback scheme, and maximization of the
    system throughput. A selected-NM Maximum Distance Ratio (MDR) q-bit feedback scheme
    designed reduces feedback overhead, since each D2D receiver sends only q-bit feedback Channel State Information (CSI) among N cellular User Equipment (CUE) and M D2D pairs with
    the largest MDR metric. SA-RRA-ABC was validated through simulations and compared with
    Greedy Resource Allocation Algorithm (GRAA) and Social-aware Greedy Resource Allocation
    Algorithm (SA-GRAA). The simulation results showed its better performance. The selected-NM
    q-feedback model proposed can achieve performance close to that of the full CSI model with
    lower overhead.
    The second RRA solution method deals with the optimization problem in a D2D cellular
    network that offers Ultra-reliable and Low Latency Communication (URLLC) services for the
    sending short packets directly to their destination, thus maximizing the network energy efficiency.
    The problem is solved by three bioinspired algorithms, namely ABC, ACS-EM, and PSO, which
    take into account interference when cellular and D2D users use a same radio resource. The metaheuristics were compared with a greedy heuristic and an exhaustive search algorithm and the
    analysis revealed the computational complexity of Greedy is the lowest and those of ABC and
    PSO are lower than that of ACS-EM. However, ABC showed better performance in solving the
    problem, followed by ACS-EM, then PSO, and lastly Greedy heuristic.


  • Mostrar Abstract
  • Next generation cellular networks promise faster data transmission, higher bandwidth, and
    lower latency and the Device-to-Device (D2D) communication technology helps make such promises
    a reality, due to proximity services (ProSe) of communication devices. The advantages of such
    communication include higher throughput, enhanced data rate, lower latency and energy consumption, fairness, and improved spectral efficiency. This research focuses on the influence of
    the management of D2D communications on a cellular network. Two problems, namely Controller Placement Problem (CPP) and Radio Resource Allocation (RRA) were studied.
    The technique proposed for solving the former involves the obtaining of number of D2D communications to be managed and then number of controllers required, their physical location in
    the cellular infrastructure, and the best evolved NodeB (eNB) assignment for them. The problem
    was modeled as an optimization problem one and Artificial Bee Colony (ABC) and Ant Colony
    System with External Memory (ACS-EM) meta-heuristics solved it. They were compared with
    Ant Colony System (ACS) and Particle Swarm Optimization (PSO) algorithms, and the analysis
    revealed the computational complexities of ABC and PSO are lower than of ACS-EM and ACS.
    However, ABC and ACS-EM showed better performance in solving the problem, with characteristics that enable a more efficient exploration of the search space, thus avoiding sub-optimal
    solutions. The best results were obtained with ABC, followed by ACS-EM, then ACS, and lastly
    PSO.
    Regarding the RRA problem, two solution methods were proposed towards obtaining the
    number of D2D connections admitted in the network. In the first RRA solution method, the optimization problem is solved by the Social-aware RRA Artificial Bee Colony (SA-RRA-ABC),
    considering the social relationship between users, a feedback scheme, and maximization of the
    system throughput. A selected-NM Maximum Distance Ratio (MDR) q-bit feedback scheme
    designed reduces feedback overhead, since each D2D receiver sends only q-bit feedback Channel State Information (CSI) among N cellular User Equipment (CUE) and M D2D pairs with
    the largest MDR metric. SA-RRA-ABC was validated through simulations and compared with
    Greedy Resource Allocation Algorithm (GRAA) and Social-aware Greedy Resource Allocation
    Algorithm (SA-GRAA). The simulation results showed its better performance. The selected-NM
    q-feedback model proposed can achieve performance close to that of the full CSI model with
    lower overhead.
    The second RRA solution method deals with the optimization problem in a D2D cellular
    network that offers Ultra-reliable and Low Latency Communication (URLLC) services for the
    sending short packets directly to their destination, thus maximizing the network energy efficiency.
    The problem is solved by three bioinspired algorithms, namely ABC, ACS-EM, and PSO, which
    take into account interference when cellular and D2D users use a same radio resource. The metaheuristics were compared with a greedy heuristic and an exhaustive search algorithm and the
    analysis revealed the computational complexity of Greedy is the lowest and those of ABC and
    PSO are lower than that of ACS-EM. However, ABC showed better performance in solving the
    problem, followed by ACS-EM, then PSO, and lastly Greedy heuristic.

3
  • Jesús Noel Suárez Rubí
  • A platform and ontologies for environment data sharing and the use of Machine Learning models for wildfire ignition and prediction

  • Orientador : PAULO ROBERTO DE LIRA GONDIM
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • JOEL JOSE PUGA COELHO RODRIGUES
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • PAULO ROBERTO DE LIRA GONDIM
  • SANDRA SENDRA COMPTE
  • Data: 20/12/2022

  • Mostrar Resumo
  • Ecossistemas, assentamentos e vidas humanas são colocados em risco por incêndios florestais todos os anos, impactando a economia e o desenvolvimento socioeconômico. O Distrito Federal brasileiro, inserido no bioma Cerrado, vem apresentando um aumento desses fenômenos. No entanto, poucos estudos foram realizados na região. Vários modelos têm sido propostos mundialmente para a previsão da ocorrência e comportamento do fogo, permitindo a identificação dos fatores que os favorecem, os riscos e pós-efeitos. A aplicação direta de tais modelos na região do Distrito Federal é desafiadora devido às diferenças nas fontes de dados, características geográficas das regiões e indisponibilidade de dados em alguns casos. Por outro lado, o uso de tecnologias de informação e comunicação e a ampla disseminação de equipamentos eletrônicos (por exemplo, redes de sensores e terminais celulares) são essenciais para o tratamento adequado de grandes volumes de dados com valor substancial para o desenvolvimento de cidades inteligentes. Particularmente, os dados ambientais de cidades inteligentes podem enriquecer os estudos sobre incêndios florestais. No entanto, propostas recentes têm enfrentado a mesma desvantagem, pois os dados são incompletos, seguem diferentes formatos de representação e até possuem diferentes conotações semânticas. A heterogeneidade de objetos inteligentes conectados à Internet (ou seja, interfaces de rede, protocolos de comunicação, estrutura de dados, precisão de aquisição e semântica de dados) tem causado problemas de interoperabilidade, dificultando a eficácia dos sistemas de apoio à decisão intimamente relacionados à qualidade dos dados. A aplicação de algoritmos de big data e aprendizado de máquina para melhorar os processos relacionados a cidades inteligentes são alguns dos exemplos impactados negativamente pela falta de padrões. As soluções para cidades inteligentes devem garantir a interoperabilidade desde a captura de dados até a extração e visualização do conhecimento por meio de tecnologias como Web Semântica e ontologias. Além disso, os componentes envolvidos devem incluir dispositivos IoT, gateways, cloud e fog computing para uma melhor aplicação das técnicas de análise de dados. Nesse sentido, esta tese propõe uma plataforma de cidade inteligente para monitoramento da qualidade ambiental baseada em tecnologias semânticas e ontologias, possibilitando um sistema de coleta e compartilhamento de dados multidefinição e multiprotocolo. Ele também apresenta uma metodologia para a extração de insights sobre os dados coletados e um mecanismo para cálculos baseados em nuvem e neblina. Além disso, são propostas ontologias para a representação semântica e definição do esquema de armazenamento considerando cidade inteligente, internet das coisas florestais (IoFT) e terminologia relacionada ao fogo. Um conjunto de dados foi compilado a partir de dados abertos governamentais brasileiros para a previsão do comportamento de incêndios florestais e usado para o treinamento de vários modelos de Machine Learning que consideram o ponto de ignição do fogo para prever as áreas que serão impactadas. Inclui observações sobre características climáticas de 5 estações de monitoramento e dados de satélite sobre incêndios ocorridos nas últimas duas décadas e foi enriquecido com outras características topográficas, hidrográficas e antropogênicas, como índice de urbanização, distância a rios/estradas e vegetação de diferença normalizada Índice (NDVI). Como resultado, a plataforma de monitoramento ambiental foi desenvolvida e testada quanto à previsão de propagação e comportamento de incêndios florestais em um momento específico e/ou em regiões específicas para auxiliar os órgãos de gestão de incêndios a minimizar os danos causados. Tal estudo de caso mostrou a aplicação do aprendizado de máquina como o principal fator para melhorar os estudos de risco e comportamento de incêndio, impactando diretamente na sustentabilidade dos ecossistemas e promovendo diversas melhorias no estudo de incêndios na região do Distrito Federal.


  • Mostrar Abstract
  • Ecosystems, settlements, and human lives are put at risk by forest fires every year, impacting economy and social-economic development. The Brazilian Federal District, inserted on the Cerrado biome, has shown an increase in such phenomena. However, few studies have been conducted in the region. Several models have been proposed worldwide for the prediction of fire occurrence and behavior, and identification of their conditioning factors, risks, and post-effects. The direct application of such models in the Federal District region is challenging due to differences in data sources, geographic characteristics of the regions, and unavailability of data in some cases. On the other hand, the use of information and communication technologies and the broad dissemination of electronic equipment (e.g., sensor networks and cellular terminals) are essential for the adequate treatment of large volumes of data with substantial value for the development of smart cities. Particularly, environmental smart city data can enrich wildfire studies. However, recent proposals have faced the same downside, since data are incomplete, follow different representation formats, and even have different semantic connotations. The heterogeneity of intelligent objects connected to the Internet (i.e., network interfaces, communication protocols, data structure, acquisition precision, and data semantics) has caused interoperability problems, hindering the effectiveness of decision-support systems closely related to the quality of data. The application of big data and machine learning algorithms for improving smart city-related processes are some of the examples negatively impacted by the lack of standards. Solutions for smart cities should grant interoperability from data capture to knowledge extraction and visualization through technologies such as Semantic Web and ontologies. Moreover, the components involved should include Internet of Things (IoT) devices, gateways, cloud, and fog computing for a better application of data analysis techniques. In this sense, this thesis proposes a smart city platform for environment quality monitoring based on semantic technologies and ontologies, enabling a multi-definition and multi-protocol data collection and sharing system. It also presents a methodology for the extraction of insights into the collected data and a mechanism for cloud- and fog-based computations. Moreover, ontologies are proposed for the semantic representation and storage scheme definition considering Smart Cities (SC), Internet of Forestry Things (IoFT), and fire-related terminology. A dataset was compiled from Brazilian governmental open data for the prediction of the wildfire behavior and used for the training of several Machine Learning models that consider the fire point of ignition to predict the areas that will be impacted. It includes observations on climate features from 5 monitoring stations and satellite data on fires that occurred over the past two decades and was enriched with other topographic, hydrographic, and anthropogenic features, such as urbanization index, distance to rivers/roads, and Normalized Difference Vegetation Index (NDVI). As a result, the environment monitoring platform has been developed and tested regarding the prediction of both spread and behavior of wildfires at a specific time and/or in specific regions for helping fire management agencies minimize the damages caused. Such a case study showed the application of machine learning as the main factor for improving fire risk and behavior studies, directly impacting the sustainability of ecosystems and promoting several improvements in the study of fires in the Federal District region.

SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2025 - UFRN - app25.sigaa25