|
Dissertações |
|
1
|
-
Gisela Sousa Ferreira
-
An Alternative Differential Protection Scheme for Electrical Microgrids
-
Orientador : FRANCIS ARODY MORENO VASQUEZ
-
MEMBROS DA BANCA :
-
FRANCIS ARODY MORENO VASQUEZ
-
FERNANDO CARDOSO MELO
-
KLEBER MELO E SILVA
-
JOSE CARLOS DE MELO VIEIRA JUNIOR
-
Data: 13/05/2024
-
-
Mostrar Resumo
-
A integração de microrredes de produção distribuída (GD) no sistema elétrico de energia tem provocado alterações significativas na abordagem à proteção do sistema elétrico, nomeadamente no que diz respeito à dinâmica do fluxo de potência. À luz destas transformações, este estudo teve como objetivo avaliar um mecanismo de proteção baseado na corrente diferencial. Em microrredes activas, esta função diferencial é colaborada por um elemento incremental para reforçar as medidas de segurança. Para atingir este objetivo, uma microrrede de média tensão (MT) foi concebida e simulada utilizando o software EMTP por zonas de proteção. O esquema de relés foi avaliado exaustivamente e foram efectuadas simulações para testar a sua eficácia. Os resultados demonstraram que o algoritmo proposto responde de forma fiável e segura a vários tipos de curto-circuitos que ocorrem em diferentes locais da microrrede, com diferentes valores de impendância, em tempo simultâneo. Além disso, o seu desempenho robusto foi confirmado em diferentes condições operacionais, incluindo os modos on-grid e off-grid, bem como topologias em anel e radiais. O método de proteção proposto constitui uma alternativa viável para a proteção de microrredes, devido à sua simplicidade, à menor necessidade de transformadores de corrente (TC) em comparação com os esquemas de proteção diferencial tradicionais e à sua fiabilidade e segurança globais.
-
Mostrar Abstract
-
The integration of distributed generation (DG) microgrids into the electrical power system has brought about significant changes in the approach to electrical system protection, particularly concerning power flow dynamics. In light of these transformations, this study aimed to assess a protection mechanism based on differential current. In active microgrids, this differential function is collaborated by an incremental element to enhance security measures. To achieve this objective, a medium voltage (MV) microgrid was designed and simulated using EMTP software by protection zones. The relay scheme was thoroughly evaluated, and simulations were conducted to test its efficacy. Results demonstrated that the proposed algorithm reliably and safely responds to various types of short circuits occurring at different locations within the microgrid, with different values of impendance, in simultaneous time. Furthermore, its robust performance was confirmed under different operational conditions, including on-grid and off-grid modes, as well as ring and radial topologies. The proposed protection method offers a viable alternative for microgrid protection attributable to its simplicity, reduced requirement for current transformers (CT) compared to traditional differential protection schemes, and its overall reliability and safety.
|
|
2
|
-
ANDREY OTACÍLIO OLIVEIRA DOS REIS
-
CLASSIFICAÇÃO DE IMAGENS COM ARTEFATOS DE COMPRESSÃO: UMA ABORDAGEM FIM-A-FIM
-
Orientador : DANIEL GUERREIRO E SILVA
-
MEMBROS DA BANCA :
-
DANIEL GUERREIRO E SILVA
-
EDUARDO PEIXOTO FERNANDES DA SILVA
-
FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
-
HUGO VALADARES SIQUEIRA
-
Data: 27/05/2024
-
-
Mostrar Resumo
-
A classificação refinada de imagens é uma modalidade de inferência muito importante em visão computacional devido a sua utilidade em abordar problemas que possuem um número elevado de classes. Além de exigir modelos com maior capacidade de aprendizado, o conjunto de imagens usadas no treinamento deve conter uma grande quantidade de amostras de boa qualidade. A presença de compressão com perdas, porém, ao degradar a qualidade do sinal pode dificultar drasticamente a tarefa do classificador. Por se tratar de algo que até mesmo viabiliza a composição dos conjuntos de treinamento dos modelos, a compressão e os seus impactos nesse tipo de aplicação não pode ser ignorada. Nesse trabalho propomos uma arquitetura de Rede Neural (RN) capaz de mitigar significativamente os prejuízos causados pela compressão JPEG, para tanto ela conta com uma dupla ramificação de redes que serão treinadas em conjunto. Os dois ramos, um para Redução de Artefatos da Compressão (RAC) e outro para classificação, são conectados de forma que a saída do primeira é a entrada do segundo. O ramo de RAC consiste em uma RN de geração de imagens responsável pela redução dos efeitos de perdas no sinal comprimido. O ramo de classificação, por sua vez, se utiliza de uma RN pré-treinada para receber essas imagens reconstruídas como entrada e executar a classificação. Dessa forma, o treinamento multi-objetivo é capaz tanto de melhorar a qualidade do sinal priorizando características importantes para a classificação quanto de se adaptar a receber imagens restauradas com certa degradação para realizar a inferência. Nos dois conjuntos de imagens que utilizamos, Caltech 200 Cub e Oxford 102 Flower, aumentamos a acurácia média para 10 fatores de qualidade (FQs) diferentes em 45.6% e 5.81%, respectivamente. Apesar da pouca flexibilidade do modelo em relação aos FQs e a necessidade de um treinamento adicional, o nosso trabalho evidencia uma forte correlação entre a eficiência do codificador e o desempenho do classificador. Além de apresentar uma arquitetura que extrai grande proveito desse aspecto para melhorar o processo de classificação de imagens comprimidas
-
Mostrar Abstract
-
Fine-grained image classification is a very important category of classification in computer vision due to its usefulness in tackling problems with a large number of classes. As well as requiring models with greater learning capacity, the datasets used for training must contain a large number of good quality samples. However lossy compression can drastically hinder the classifier’s task by degrading the signal quality. Compression and its impact on this type of application cannot be ignored, as it is something that even makes it possible to compose the training datasets for the models. In this work, we propose a Neural Network (NN) architecture capable of significantly mitigating the damage caused by JPEG compression. To do so, it relies on a double branch of structures that will be trained together. The two branches, one for Compression Artifacts Reduction (CAR) and the other for classification, are connected in such a way that the output of the first is the input of the second. The CAR branch consists of an image generation NN responsible for reducing the losses effects in the compressed signal. In turn, the classification branch uses a pre-trained NN to receive these reconstructed images as input and perform the classification. In this way, multi-objective training is able both to improve the signal quality by prioritizing important features for classification and to adapt to receiving restored images with a certain amount of degradation in order to carry out inference. In the two datasets we used, Caltech 200 Cub and Oxford 102 Flower, we increased the average accuracy for 10 different quality factors (QFs) by 45.6% and 5.81%, respectively. Despite the model’s lack of flexibility with regard to QFs and the need for additional training, our work shows a strong correlation between codec efficiency and classifier performance. It also presents an architecture that takes great advantage of this aspect to improve the compressed image classification process.
|
|
3
|
-
Gabriel Pimenta de Freitas Cardoso
-
DEEP REINFORCEMENT LEARNING E HIPER-HEURÍSTICA APLICADOS À ALOCAÇÃO DE RECURSOS EM SISTEMAS DE COMUNICAÇÕES 6G COM COMUNICAÇÕES D2D E SENSOREAMENTO
-
Orientador : PAULO ROBERTO DE LIRA GONDIM
-
MEMBROS DA BANCA :
-
PAULO ROBERTO DE LIRA GONDIM
-
HUGERLES SALES SILVA
-
LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
-
JOSE MARCOS CAMARA BRITO
-
Data: 28/05/2024
-
-
Mostrar Resumo
-
Este trabalho propõe uma estratégia para a realização conjunta da alocação de espectro e do controle de potências em sistemas de comunicações móveis de 5G e gerações futuras com sensoreamento integrado. A aplicação tratada neste trabalho se situa em um contexto relacionado à Indústria 4.0, abarcando um cenário industrial com comunicações primárias, comunicações D2D e sensores. A solução proposta para realizar a alocação de recursos nesse sistema é composta pela conjunção de duas técnicas no estado da arte: algoritmos de Deep Reinforcement Learning (DRL) e Hiper-Heurísticas (HH). O primeiro algoritmo que forma a estratégia conjunta proposta neste trabalho foi desenvolvido utilizando-se redes neurais treinadas por meio de técnicas de DRL para controle de potências. O segundo algoritmo, que completa a estratégia proposta, foi desenvolvido através de técnicas relacionadas à aplicação de HHs em conjunção com algoritmos de DRL, para realização da alocação do espectro disponível. A estratégia conjunta teve como objetivos principais: proteger as comunicações primárias, almejando-se reduzir a taxa de outage para garantia de uma comunicação de qualidade; além de proteger os sensores do sistema, objetivando-se reduzir a taxa de outage dos sensores para garantir que a probabilidade de detecção estivesse acima de um limiar pré definido. Como objetivo secundário, o algoritmo proposto buscou-se maximizar a taxa de transmissão das comunicações D2D. Os resultados mostraram que o algoritmo de controle de potências que obteve o melhor desempenho, em comparação com outros algoritmos da área no estado da arte, foi o Proximal Policy Optimization (PPO). Esse algoritmo proposto, separadamente ao de alocação do espectro, foi capaz, em um Resource Block (RB), de reduzir a taxa de outage das comunicações primárias de 64.35% para 11.75%, reduzir a taxa de outage dos sensores de 38.5% para 4.4% e aumentar a SNIR das comunicações D2Ds de -25.6 dB para -7.5 dB, se comparado com os resultados obtidos por um algoritmo aleatório. Para a estratégia completa, isto é, com algoritmos de DRL e HH realizando tanto o controle de potências quanto a alocação do espectro, os resultados indicaram que, em comparação com uma alocação de recursos baseada em escolhas aleatórias, a estratégia conjunta foi capaz de reduzir a taxa de outage das comunicações primárias de 65.8% para 13.3%, reduzir a taxa de outage dos sensores de 48.1% para 3.3% e aumentar a SNIR das comunicações D2Ds de -24.3 dB para -11.2 dB em sistemas com múltiplos RBs. Além disso, o algoritmo se mostrou escalável para sistemas com diferentes quantidades de comunicações, sensores e RBs, sendo aplicável em diferentes configurações do sistema.
-
Mostrar Abstract
-
This work proposes a strategy for the joint execution of spectrum allocation and power control in 5G mobile communication systems and future generations with integrated sensing. The application addressed in this work is situated in a context related to Industry 4.0, encompassing an industrial scenario with primary communications, D2D communications, and sensors. The proposed solution for resource allocation in this system consists of the conjunction of two state-of-the-art techniques: Deep Reinforcement Learning (DRL) algorithms and Hyper-Heuristics (HH). The first algorithm that forms the proposed joint strategy in this work was developed using neural networks trained through DRL techniques for power control. The second algorithm, which completes the proposed strategy, was developed using techniques related to the application of HHs in conjunction with DRL algorithms for the allocation of available spectrum. The main objectives of the joint strategy were: to protect primary communications, aiming to reduce the outage rate to ensure quality communication; and to protect the system’s sensors, aiming to reduce the sensor outage rate to ensure that the detection probability was above a predefined threshold. As a secondary objective, the proposed algorithm sought to maximize the transmission rate of D2D communications. The results showed that the power control algorithm that performed best, compared to other state-of-the-art algorithms in the area, was Proximal Policy Optimization (PPO). This proposed algorithm, separately from the spectrum allocation algorithm, was able, in a Resource Block (RB), to reduce the primary communications outage rate from 64.35% to 11.75%, reduce the sensor outage rate from 38.5% to 4.4%, and increase the SNIR of D2D communications from -25.6 dB to -7.5 dB, compared with the results obtained by a random algorithm. For the complete strategy, that is, with DRL and HH algorithms performing both power control and spectrum allocation, the results showed that, compared to a resource allocation based on random choices, the joint strategy was able to reduce the primary communications outage rate from 65.8% to 13.3%, reduce the sensor outage rate from 48.1% to 3.3%, and increase the SNIR of D2D communications from -24.3 dB to -11.2 dB in systems with multiple RBs. Additionally, the algorithm proved scalable for systems with varying amounts of communications, sensors, and RBs, being applicable in different system configurations.
|
|
4
|
-
Larissa Aidê Araújo Rocha
-
METHODS FOR ESTIMATING USER POSITION IN THE NEAR-FIELD REGIME
-
Orientador : DANIEL COSTA ARAUJO
-
MEMBROS DA BANCA :
-
DANIEL COSTA ARAUJO
-
ADONIRAN JUDSON DE BARROS BRAGA
-
UGO SILVA DIAS
-
FELIX DIETER ANTREICH
-
Data: 29/05/2024
-
-
Mostrar Resumo
-
A estimativa de parâmetros usando métodos de processamento de sinais é um tópico significativo em vários domínios, como radar, análise sísmica, sonar, vigilância eletrônica e muito mais. Essa pesquisa concentrou-se em duas áreas principais no processamento de sinais: processamento de conjuntos de antenas e processamento de usuário estimativa de posição. No contexto do processamento de arranjos de antenas, a localização do usuário envolve estimar o parâmetros de posição de fontes, muitas vezes empregando métodos de subespaço, como Classificação de Sinais Múltiplos (MÚSICA) e estimativa de parâmetros de sinal por meio de técnicas de invariância rotacional (ESPRIT), entre outros. Em cenários de campo distante, uma fonte é caracterizada apenas pela sua direção de chegada (DOA). No entanto, esta suposição não é mais válida em situações de campo próximo onde as fontes estão próximas do conjunto de sensores. Nesses cenários, a frente de onda do sinal torna-se esférico, necessitando da consideração de dois parâmetros para localização precisa da fonte: a direção de chegada e a distância entre a fonte e o conjunto de sensores. A estimativa da posição do usuário em campo próximo é crucial devido a vários fatores, especialmente quando considerando redes avançadas como a sexta geração (6G), onde melhorias adicionais são esperado em localização e rastreamento. Estas melhorias resultarão da utilização conjunta de altas frequências e grandes matrizes. Com o aumento significativo do número de antenas e frequência portadora em futuros sistemas 6G, a região de campo próximo de conjuntos de antenas extremamente grandes (ELAAs) expandir-se-ão em ordens de grandeza. Como resultado, as comunicações de campo próximo desempenham um papel crítico nas futuras redes móveis 6G, onde o modelo de propagação deve levar em conta para diferenças em relação aos sistemas existentes de quinta geração (5G) de campo distante. A densidade espacial e a capacidade de interações eletromagnéticas entre elementos vizinhos em ELAAs introduz considerações exclusivas para estimativa de posição de campo próximo. Compreender e abordar estes complexidades serão o foco principal desta pesquisa. Esta dissertação investiga dois aspectos interconectados da localização de fontes: localização bidimensional localização da fonte (2D) no campo próximo e localização da fonte tridimensional (3D) no campo próximo.
perto do campo. Em nossa abordagem de localização de fonte 2D, especificamente para coordenadas [x,y], propomos um método inovador que combina a estimativa adaptativa de subespaço com a arquitetura de submatriz para localizar usuários com precisão em cenários de campo próximo. Ao incluir as técnicas de submatriz adaptadas para ELAAs, exploramos a invariância rotacional em cada submatriz para implementar o PAST Algoritmo (rastreamento de subespaço de aproximação de projeção). Esta abordagem é computacionalmente eficiente devido à sua fórmula de atualização recursiva, que nega a necessidade de cálculo computacional tarefas intensivas como inversões de matrizes ou decomposições de autovalores. Em termos de precisão, nosso método supera as abordagens existentes, conforme demonstrado em gráficos de erro quadrático médio (RMSE) e gráficos de avaliações de função distribuída cumulativa (CDF). Além disso, o a precisão do algoritmo PAST a uma distância de 3,5 metros é de 0,0250 metros no percentil 10, superando outros métodos de localização de fonte. Da mesma forma, a 25 metros, o PAST atinge uma precisão de 0,3983 (percentil 10). Esses resultados destacam a precisão e a confiabilidade do PAST para localização precisa da fonte em cenários de campo próximo, tornando-o uma escolha robusta para tais formulários. Para localização de fontes 3D, especificamente para coordenadas [x, y, z], introduzimos um novo método de estimativa de posição tridimensional (3D-P) projetado para sistemas sem fio que empregam Uniform Rectangular Arrays (URAs). Esta abordagem particiona virtualmente o array em submatrizes, cada um tem a tarefa de estimar independentemente os ângulos de azimute e elevação. Para lidar com os dados multidimensionais de forma eficaz, empregamos a decomposição de valores singulares de ordem superior (HOSVD), reduzindo o tamanho do tensor para uma representação mais concisa da estrutura de dados, particularmente benéfico em aplicações URA. Além disso, utilizamos a aproximação da série de Taylor para resolver problemas não lineares. problemas de mínimos quadrados, contribuindo para estimativas de posição precisas, mesmo em cenários complexos com 8 dispersões. Nossa abordagem mostra a eficácia do algoritmo na mitigação de multipercursos interferência, com a potência do ruído exercendo influência mínima. Os resultados indicam que o submetro a precisão é alcançável em SNRs de 30 e 40 dB para os espalhamentos 2 e 8 em todos os percentis, enfatizando a robustez da técnica em condições favoráveis.
-
Mostrar Abstract
-
Parameter estimation using signal processing methods is a significant topic in various domains such as radar, seismic analysis, sonar, electronic surveillance, and more. This research has focused on two key areas within signal processing: antenna array processing and user position estimation. In the context of antenna array processing, the user’s localization involves estimating the position parameters of sources, often employing subspace methods such as Multiple Signal Classification (MUSIC) and estimation of Signal Parameters via Rotational Invariance Techniques (ESPRIT), among others. In far-field scenarios, a source is characterized solely by its direction of arrival (DOA). However, this assumption no longer holds in near-field situations where sources are close to the sensor array. In such scenarios, the wavefront of the signal becomes spherical, necessitating the consideration of two parameters for accurate source localization: the direction of arrival and the distance between the source and the sensor array. The near-field user position estimation is crucial due to several factors, especially when considering advancing networks like sixth-generation (6G), where further improvements are expected in localization and tracking. These improvements will result from the joint use of high frequencies and large arrays. With the significant increase of the antenna number and carrier frequency in future 6G systems, the near-field region of extremely large antenna arrays (ELAAs) will expand by orders of magnitude. As a result, near-field communications will play a critical role in future 6G mobile networks, where the propagation model must account for differences from existing far-field fifth-generation (5G) systems. The spatial density and the capacity of electromagnetic interactions between neighboring elements in ELAAs introduce unique considerations for near-field position estimation. Understanding and addressing these complexities will be the primary focus of this research. This dissertation delves into two interconnected aspects of source localization: two-dimensional (2D) source localization in the near-field and three-dimensional (3D) source localization in the near-field. In our 2D source localization approach, specifically for coordinates [x,y], we propose an innovative method that combines the adaptive subspace estimation with the sub-array architecture to accurately locate users in near-field scenarios. By including the sub-array techniques tailored for ELAAs, we explore the rotational invariance in each sub-array to implement the PAST (Projection Approximation Subspace Tracking) algorithm. This approach is computationally efficient due to its recursive update formula, which negates the necessity for computationally intensive tasks like matrix inversions or eigenvalue decompositions. In terms of precision, our method surpasses existing approaches, as demonstrated in graphs of root-mean-square error (RMSE) and graphs of cumulative distributed function (CDF) evaluations. Furthermore, the accuracy of the PAST algorithm at a distance of 3.5 meters is 0.0250 meters at the 10th percentile, outperforming other source localization methods. Similarly, at 25 meters, PAST achieves an accuracy of 0.3983 (10th percentile). These results highlight PAST’s accuracy and reliability for precise source localization in near-field scenarios, making it a robust choice for such applications. For 3D source localization, specifically for coordinates [x,y, z], we introduce a novel threedimensional position (3D-P) estimation method designed for wireless systems employing Uniform Rectangular Arrays (URAs). This approach virtually partitions the array into subarrays, each is tasked with independently estimating azimuth and elevation angles. To handle the multidimensional data effectively, we employ Higher-Order Singular Value Decomposition (HOSVD), reducing tensor size for a more concise representation of data structure, particularly beneficial in URA applications. Additionally, we utilize Taylor series approximation to address non-linear least square problems, contributing to accurate position estimations, even in intricate scenarios with 8 scatters. Our approach showcases the algorithm’s efficacy in mitigating multipath interference, with noise power exerting minimal influence. The results indicate that sub-meter accuracy is attainable at 30 and 40 dB SNRs for the 2 and 8 scatters in all percentiles, emphasizing the robustness of the technique in favorable conditions.
|
|
5
|
-
Gabriel Helbourn Bastos
-
Proposta de Sistema de Gerenciamento de Energia para Microrrede com Geração Fotovoltaica, Biogás e Armazenamento de Energia
-
Orientador : FERNANDO CARDOSO MELO
-
MEMBROS DA BANCA :
-
FERNANDO CARDOSO MELO
-
AMAURI GUTIERREZ MARTINS BRITTO
-
FRANCIS ARODY MORENO VASQUEZ
-
LUCAS PEREIRA PIRES
-
Data: 31/05/2024
-
-
Mostrar Resumo
-
Microrredes representam o futuro dos sistemas elétricos de potência, e para que funcione adequadamente, um sistema de gerenciamento de energia da microrrede (MEMS) deve ser projetado para encontrar a melhor maneira de lidar com a carga de forma confiável. Este estudo tem como objetivo propor e simular um MEMS de uma microrrede localizada na Universidade de Brasília e composta por três recursos energéticos distribuídos (REDs): painéis fotovoltaicos, usina termelétrica a biogás e um sistema de armazenamento de energia em bateria. Para a simulação foi preciso recolher informações de perfil de consumo da unidade consumidora e do potencial energético para que os REDs pudessem ser bem dimensionados. O algoritmo sugerido foi desenvolvido para os modos conectado e ilhado, buscando priorizar o sistema fotovoltaico e considerando o estado de carga na tomada de decisão. O horário também deve ser monitorado de modo a reduzir ou cortar a contribuição da rede para carga em período de pico, como serviço ancilar. Simulações foram realizadas para semanas específicas e para o ano inteiro de 2023, com o intuito de validar o sistema de gerenciamento de energia e verificar possíveis desligamentos. Considerando o cenário anual, a mínima e máxima geração fotovoltaica foi de 30,33 e 41,59 MWh nos meses de abril e novembro, respectivamente, enquanto a maior carga consumida foi no mês de maio, atingindo 78,56 MWh. A potência fornecida pela rede oscilou entre 12,63 MWh e 33,21 MWh, tendo uma redução de mais de 60%. Além disso, foi avaliado o custo total da energia consumida por cada fonte, pela microrrede e o quanto seria gasto pelo sistema sem a microrrede. Os resultados das simulações foram muito positivos, com boas respostas às interrupções da rede e alcançando uma economia de R$ 318.579,49 no ano de 2023.
-
Mostrar Abstract
-
Microgrids represent the future of electrical power systems, and for them to function properly, a microgrid energy management system (MEMS) must be designed to find the best way to handle the load reliably. This study aims to objective to propose and simulate a MEMS for a microgrid located at the University of Brasília and composed of three distributed energy resources (REDs): photovoltaic panels, biogas thermoelectric plant and a battery energy storage system. For the simulation it was necessary collect information on the consumer unit’s consumption profile and energy potential to so that REDs could be scaled well. The suggested algorithm was developed for connected and islanded modes, seeking to prioritize the photovoltaic system and considering the state of burden on decision making. The schedule must also be monitored in order to reduce or cut the network's contribution to peak period load, as an ancillary service. Simulations were carried out for specific weeks and for the entire year 2023, with the aim of validating the system power management system and check for possible shutdowns. Considering the annual scenario, the minimum and maximum photovoltaic generation was 30.33 and 41.59 MWh in the months of April and November, respectively, while the largest load consumed was in the month of May, reaching 78.56 MWh. The power supplied by the grid ranged between 12.63 MWh and 33.21 MWh, with a reduction of more than 60%. Furthermore, the total cost of energy consumed by each source was evaluated, by microgrid and how much would be spent by the system without the microgrid. The results of the simulations were very positive, with good responses to network interruptions and achieving savings in R$318,579.49 in 2023.
|
|
6
|
-
Téssio Perotti Arruda
-
Optimizing 3D Antenna Arrays and Ground Station Distribution for Satellite Communication
-
Orientador : SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
-
MEMBROS DA BANCA :
-
SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
-
DANIEL COSTA ARAUJO
-
RENATO ALVES BORGES
-
ALLAN KARDEC DUAILIBE BARROS FILHO
-
Data: 31/05/2024
-
-
Mostrar Resumo
-
Este trabalho tem o objetivo de porpor uma distribuição de estações de solo que maximizem o contato e o downlink com um satélite de órbita baixa em um dado território. Ele está inserido no contexto do projeto ”Estação Terrena Autônoma Distribuída de Baixo Cuto e Alta Taxa de Download”, aprovado na chamada CNPq/AEB/MCTI/FNDCT Nº 20/2022 do programa UNIESPAÇO, cujo objetivo é determinar a viabilidade de uma estação terrestre programável remotamente, idealmente sem partes móveis, em regiões não polares, e com uma meta de custo inferios a um décimo do custo das estações terrestres contemporâneas para construir e manter. Esse tipo de estudo é pouco explorado com aplicações ao território brasileiro, que foi o escolhido como cenário das análises deste trabalho, embora as ferramentas desenvolvidas possuam aplicação para qualquer região de interesse. Ainda com a ideia de explorar aplicações nacionais, um dos satélites que foi utilizado neste trabalho foi o VCUB1, o primeiro satélite de observação da Terra que foi projetado pela indústria nacional. Para atingir essa finalidade, uma ferramenta em python foi desenvolvida com as seguintes funcionalidades: simular antenas parabólicas e de microfita, realizar a rotação de campos distantes de antenas fisicamente rotacionadas, combinar várias antenas fisicamente rotacionadas e posicionadas de forma não uniforme em um arranjo, avaliar o link budget de um enlace de comunicação satelital, distribuir estações de solo através de um dado território de forma a maximizar a cobertura, maximizar a cobertura de estações de solo restritas a posições fixas em um território e projetar um array sem partes móveis capaz de manter um nível constante de potência em relação a um passe de satélite de órbita baixa. O trabalho inicia com um capítulo relacionado com a fundamentação teórica do problema, em que são apresentadas as equações que foram implementadas nos módulos do pacote em python. As necessidades de propagação de órbitas de satélites e cálculos de acesso foram supridas por meio do software SMET, também desenvolvido no contexto do projeto. Um dos objetivos é integrar as ferramentas desenvolvidas neste trabalho com esse software já existente. Dessa forma, ao fim do projeto, espera-se entregar um software completo para realizar análises envolvendo enlaces de comunicação satelitais. Nesse capítulo, o satélite americano SAC-C foi utilizado como benchmark das ferramentas desenvolvidas, por já ter sido alvo de estudos de link budget e possuir dados disponíveis. A seguir, apresenta a solução do problema de distribuição de estações de solo para maximizar a cobertura de um dado satélite de órbita baixa. Para isso, foi sugerido um processo em três etapas utilizando diferentes técnicas de otimização, com cada etapa resolvendo deficiências das etapas passadas. O primeiro passo envolveu um relaxamento do problema para que ele fosse capaz de ser modelado de forma convexa, restringindo as estações de solo a um grid grosseiro sob o território brasileiro. O resultado dessa otimização convexa foi, então, usado como entrada para outra abordagem que considerava que não mais restringia as estações de solo a um grid. No entanto, considerava uma aproximação para o padrão de cobertura das antenas, considerandoas circulares em um grid de latitude e longitude e também não restringia as antenas a estarem dentro do território de interesse. Por fim, esse resultado foi usado como entrada de um algoritmo genético de evolução diferencial, que foi capaz de incluir todas as restrições desejadas. Cada etapa refinou o resultado inicialmente encontrado pela otimização convexa, que se mostrou eficaz mesmo com o relaxamento do problema. Também foi apresentada uma modificação do problema, considerando as estações de solo restritas a locais específicos do país, em que haja infraestrutura suficiente para facilitar a manutenção dessas estações. Nesse caso, as variáveis a serem otimizados foram os parâmetros das antenas utilizadas, como o diâmetro do refletor parabólico. O resultado encontrado, então, foi comparado com uma estação posicionada próximo ao polo sul, obtendo capacidades semelhantes de download. Finalmente, foi proposta uma otimização de forma a obter um arranjo de antenas sem partes móveis capaz de manter um nível de potência constante ao longo da trajetória de um satélite de órbita baixa. O arranjo encontrado foi capaz de manter o nível aproximadamente constante de potência. No entanto, ainda apresenta um grande espalhamento de energia, dificultando a capacidade de fechar enlaces de comunicação satelitais com esse tipo de arranjo. Nesse contexto do cálculo de arranjo de antenas, foi integrada outra ferramenta desenvolvida no contexto do projeto, chamada AFTK. Essa ferramenta é capaz de reconstruir os campos de uma antena em qualquer ponto a partir de uma amostra dos campos utilizando modos esféricos. Em resumo, foi possível encontrar um procedimento que é capaz de maximizar a área coberta por estações de solo considerando os passes de um satélite, além de também propor uma solução de estações de solo dentro do território nacional com capacidades de downlink similares a uma estação próxima ao Polo Sul e também propor um arranjo sem partes móveis capaz de manter um nível de potência aproximadamente constante durante um passe de satélite. Isso foi alcançado com o desenvolvimento de ferramentas que foram integradas a outros softwares desenvolvidos no contexto do projeto CNPq.
-
Mostrar Abstract
-
This work investigates the design and optimization of 3D antenna arrays and ground station distribution for satellite communication systems. It has the objective of proposing a ground station distribution that maximizes the contact and downlink data with a LEO satellite over a given territory. The dissertation begins with a theoretical foundation, reviewing key antenna types such as parabolic reflectors and microstrip antennas. It discusses radiation fields from apertures and directivity from electric fields, providing essential background information. The study then explores satellite propagation and link budgets, analyzing factors such as transmitted power, free space losses, signal-to-noise ratio and satellite link quality. Ground station distribution is addressed through a multi-step problem analysis, where the distribution across Brazil is assessed to determine optimal locations for effective satellite communication. Various optimization algorithms, including convex optimization, sequential least squares, and differential evolution, are employed to model and optimize ground station distribution, with a focus on improving overall network performance. The next chapter introduces an approach to antenna array design that allows antennas to be positioned and steered in any 3D configuration. It begins with a discussion on physically steered arrays, where the relative positions, feed coefficients, and rotations of individual antennas are defined. The chapter provides equations to compute the resulting electric fields, illustrating these concepts with practical examples and simulation results. Is then proposed an approach focusing on creating arrays with specific patterns, using optimization algorithms to achieve constant field strength across a range of angles. A final section explores a design for considering satellite passes, optimizing a fixed-position array to track the trajectory of a specific satellite. Finally, it is presented the overall conclusions and considerations regarding the found results. First, it is proposed a ground station distribution that maximizes link coverage with a specific satellite over a given territory. Second, the scenario is slightly modified to consider ground station that are constrained to specific places. In this case, the variable to be optimized to maximize the satellite link coverage are the antenna parameters, like the diameter of a parabolic reflector. Lastly, it is proposed an antenna array design that maintains constant power level in the direction of a satellite pass with no moving parts.
|
|
7
|
-
Igor Bispo de Moraes Coelho Correia
-
Detecção de Desmatamento em Imagens SAR usando Redes Neurais Profundas.
-
Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
-
MEMBROS DA BANCA :
-
EDUARDO PEIXOTO FERNANDES DA SILVA
-
DANIEL GUERREIRO E SILVA
-
RENATO ALVES BORGES
-
HÉLCIO VIEIRA JUNIOR
-
Data: 03/06/2024
-
-
Mostrar Resumo
-
Dadas as limitações das imagens ópticas de satélite, o radar de abertura sintética (SAR) se destaca pela sua resistência a condições climáticas adversas. No entanto, o reconhecimento preciso das áreas desmatadas áreas em imagens SAR são necessárias devido ao ruído pontilhado e à variabilidade do objeto. Neste trabalho, nós realizou um experimento online com participantes voluntários que identificaram áreas desmatadas em imagens SAR. Para conseguir isso, desenvolvemos um software que permite aos participantes anotar as imagens SAR, delimitando áreas desmatadas. Com os resultados desta experiência, foi possível analisar a relação entre o nível de experiência autodeclarado pelos participantes e a precisão na detecção de áreas desmatadas. Também comparamos o desempenho humano e o desempenho obtido com um modelo automático baseado na arquitetura UNet. Os resultados mostram que maior conhecimento em sensoriamento remoto ou SAR não garante notas de qualidade. Além disso, o desempenho da UNet supera o desempenho obtido com humanos no tarefa. Para explorar com mais profundidade a segmentação de imagens SAR, um segundo experimento foi realizado usando modelos de última geração para segmentação em dados SAR fundidos e ópticos. O estudo reforça o potencial do aprendizado profundo na detecção de desmatamento, enfatizando a necessidade para melhoria contínua de arquiteturas e formação de especialistas.
-
Mostrar Abstract
-
Given the limitations of optical satellite images, synthetic aperture radar (SAR) stands out for its resistance to adverse weather conditions. However, accurate recognition of deforested areas in SAR images is required due to speckle noise and object variability. In this work, we carried out an online experiment with volunteer participants who identified deforested areas in SAR images. To achieve this, we developed software that allows participants to annotate the SAR images, delimiting deforested areas. With the results of this experiment, it was possible to analyze the relationship between the participants’ self-declared experience level and the accuracy in detecting deforested areas. We also compare human performance and the performance obtained with an automatic model based on the UNet architecture. The results show that greater knowledge in remote sensing or SAR does not guarantee quality grades. Furthermore, UNet’s performance surpasses the performance obtained with humans on the task. To explore the segmentation of SAR images in more depth, a second experiment was carried out using state-of-the-art models for segmentation on fused SAR and optical data. The study reinforces the potential of deep learning in detecting deforestation, emphasizing the need for continuous improvement of architectures and training of specialists
|
|
8
|
-
Antonio Bittar Bigonha
-
A COMPARISON OF DYNAMIC COOPERATION CLUSTERING ALGORITHMS AND PILOT ASSIGNMENT METHODS ON PERFORMANCE, COMPLEXITY AND FAIRNESS OF USER CENTRIC MIMO UPLINK
-
Orientador : DANIEL COSTA ARAUJO
-
MEMBROS DA BANCA :
-
DANIEL COSTA ARAUJO
-
HUGERLES SALES SILVA
-
UGO SILVA DIAS
-
IGOR MOACO GUERREIRO
-
Data: 28/06/2024
-
-
Mostrar Resumo
-
User Centric Massive MIMO ou Cell Free MIMO proõem uma alternativa aos convencionais sistemas cellular MIMO, visto que possuem como objetivo uma distribuição mais uniforme das taxas de transmissão entre os usuários. Cell free atinge esse objetivo ao explorar a diversidade geográfica do meio de comunicaçá, ao conectar o usuário a vários acess points espalhados ao longo de um grid. Pesquisas iniciais a respeito de sistemas user centric sugeriram que o usuário deveria ser servido por todos os access points em sua proximidade, o que resultaria em desempenho quase ótimo. Estudos recentes, no entanto, mostraram que tal configuracção pode sser irrealizável na presença de um número elevado de acces points. Um algoritmo que conecta um usuário aos access points por meio de métricas de cancelamento de interferência provou requerer menos potência computacional, com uma perda mínima de desempenho. Tal método possui desempenho insuficiente em ambientes em que uma estimativa de canal de maior qualidade se faz necessária. Este trabalho propõe um método alternativo, que se mostra mais realizável em tais ambientes. Adicionalmente, sugere dois algoritms para assinalamento dos access points que não dependem da técnica utlizada para estimar o canal, de tal maneira que podem ser usados até em ambientes em que se facça uso de estimativa não linear do canal. Um ponto chave deste trabalho é estabelecer uma comparação entre os métodos de assinalamento de access points no que se refere à viabilidade de seus usos em redes convencionais, por exemplo em relação ao aumento do número de usuários, qualidade de estimativa do canal e adiçao de novos access points. Outro objetivo é a comparação desses métodos a convencionais, como sistemas celulares. Outro objetivo é a comparação do desempenho de sistemas com estatísticas perfeitas e imperfeitas de canal, e, finalmente, o desempenho destes métodos para diferenres métricas de cancelamento de interferência (os algoritmos de assinalamento de pilotos).
-
Mostrar Abstract
-
User Centric Massive MIMO or Cell Free MIMO propose an alternative to conventional cellular MIMO systems, where the latter aims for a more uniform distribution of data rates among the user equipments. Cell free achieves that by expoiting the geographical diversity of the communication media, by connecting the user equipment to various acess points scattered around the grid. Early reasearch on user centric systems have suggested that the user equipment should be served by all of its neighboring access points for near optimal performance. Recent studies, however, have shown that such configuration may be unfeasible when there are many such access points. An algorithm that assigns the user equipment to access points based on interference cancellation metrics has been shown to require less computational power, with minimum performance loss. Such method does not perform well, however, on environments where greater channel estimation quality is required. This work proposes an alternative method, that shows itself to be more feasible on such situations. Additionally, it introduces two other methods of access point assignment that do not depend on the channel estimate technique, being suitable even for environments with non-linear channel estimation, opposed to the other two methods. One key point of this work is to establish a comparison between the access points clustering methods on feasibility of conventional networks, such as the increasing number of user equipments, quality of channel estimation, and addition of nerwer acess points. Another key objective is the comparison of such methods to more conventional network configuations such as cellular networks. Another key aspect is the performance over known and unknown channel statistics, and the limitaions of such methods on imperfect statistics environments. The final objective, is to compare performance of such methods for different interference cancellation metrics (the pilot assignemnt algorithms).
|
|
9
|
-
Jefferson Carlos Tavares Oliveira de Lima
-
IMPLEMENTAÇÃO DE MODELAGEM E SOLUÇÃO DE SISTEMAS DE CORRENTE CONTÍNUA EM ALTA TENSÃO NO PROGRAMA DE FLUXO DE POTÊNCIA CA MATPOWER
-
Orientador : FRANCISCO DAMASCENO FREITAS
-
MEMBROS DA BANCA :
-
FRANCISCO DAMASCENO FREITAS
-
FERNANDO CARDOSO MELO
-
KLEBER MELO E SILVA
-
ANTONIO FELIPE DA CUNHA DE AQUINO
-
Data: 10/07/2024
-
-
Mostrar Resumo
-
Esta dissertação apresenta uma ferramenta computacional que, incorporada ao programa de solução de fluxo de potência CA MATPOWER, permite a resolução do problema de fluxo de potência (PFP) em redes integradas CA-CC. A integração foi possível através da incorporação de novos scripts desenvolvidos especificamente para possibilitar a interligação de redes CA e CC. A resolução do PFP utiliza uma abordagem alternada em que o método de Newton-Raphson é usado para determinação dos estados magnitude de tensão e ângulo em barras CA. A partir desses resultados, são calculadas iterativamente as variáveis do lado CC e vice-versa. Esse processo prossegue até a convergência final do PFP. Para demonstrar a abordagem proposta, foi desenvolvido um procedimento adequado para a entrada de dados de modelagem relativos ao elo CC e leitura pelo programa MATPOWER adaptado. Além disso, foram implementados scripts com comandos para o cálculo da solução das equações dos elos CC, incorporação em outros scripts de comando do MATPOWER e apresentação dos resultados obtidos em formato apropriado. Por fim, os resultados dos testes no MATPOWER foram validados através de comparações de testes realizados no aplicativo ANAREDE, ficando compravada a equivalência dos resultados.
-
Mostrar Abstract
-
This MSc dissertation presents a computational tool which, incorporated into the MATPOWER AC power flow solution program, the resolution of the power flow problem (PFP) in integrated AC-DC networks. The integration was possible by incorporating new scripts specifically developed to enable the interconnection of AC and DC networks. The PFP resolution uses an alternating scheme in which the Newton-Raphson method determines AC bars’ voltage magnitude and angle states. From these results, the variables on the DC side and vice versa are calculated iteratively. This process continues until the final convergence of the PFP. To demonstrate the efficacy of the proposed approach, a suitable procedure was developed for inputting modeling data relating to the CC link and reading it using the adapted MATPOWER program. Furthermore, scripts with commands were implemented to calculate the solution of the CC link equations, incorporate them into other MATPOWER command scripts, and present the results appropriately. Finally, the results of the tests in MATPOWER were validated through comparisons of tests carried out in the ANAREDE application, ensuring the equivalence of the results.
|
|
10
|
-
BRENO DE ALMEIDA MENEZES
-
Análise de risco da viabilidade técnico-econômica de uma usina híbrida composta por uma usina heliotérmica com armazenamento térmico e por uma usina fotovoltaica com armazenamento por baterias
-
Orientador : ANESIO DE LELES FERREIRA FILHO
-
MEMBROS DA BANCA :
-
ANESIO DE LELES FERREIRA FILHO
-
KLEBER MELO E SILVA
-
MARIO BENJAMIM BAPTISTA DE SIQUEIRA
-
DAYWES PINHEIRO NETO
-
Data: 13/09/2024
-
-
Mostrar Resumo
-
O aumento contínuo no consumo de energia elétrica, aliado à preocupação crescente com a segurança energética e à necessidade de reduzir as emissões de gases poluentes, justifica a complexidade e os desafios do cenário nacional e mundial atual. Nesse contexto, as tecnologias de energia renovável, como a Solar Fotovoltaica (PV) e a Solar Concentrada (CSP), caracterizam-se como uma solução sustentável e ecologicamente correta para suprir a crescente demanda por energia, tanto no Brasil quanto globalmente. Considerando esses fatores, surgiu a ideia de desenvolvimento deste estudo, cujo objetivo é realizar uma análise de riscos de investimentos em geração de energia elétrica por meio de usinas híbridas CSP + PV, que utilizam: i) topologia torre solar para CSP; ii) usina PV; e iii) sistemas de armazenamento térmico e de bateria. Para cada usina, será elaborada uma metodologia de análise de risco que: i) emprega modelos estocásticos para a geração das séries sintéticas das variáveis aleatórias que influenciam a produção energética e a viabilidade econômica; ii) modela o sistema físico que caracteriza a sua operação; e iii) utiliza o modelo de fluxo de caixa para a análise de viabilidade econômica do investimento. A análise de viabilidade econômica da usina híbrida baseia-se no modelo de fluxo de caixa descontado (FCD) para a empresa (FCLE) e para os acionistas (FCLA). Ela será efetuada considerando-se que a energia elétrica produzida será comercializada no Ambiente de Contratação Regulado (ACR). Além disso, este estudo contempla as particularidades legislativas e tributárias com esta venda de energia no ACR. Os resultados fornecem informações do potencial de geração e dos indicadores de viabilidade econômica do investimento. No cenário inicial proposto para a usina híbrida, os indicadores econômicos mencionados apontaram a inviabilidade econômica, independentemente do fluxo de caixa adotado. Diante deste quadro, e com o objetivo de se avaliar como os principais parâmetros afetam a viabilidade econômica, executou-se uma análise de sensibilidade univariada para o valor presente líquido para o FCLE e para o FCLA dos seguintes parâmetros: preço de venda da energia elétrica no ACR, CAPEX, taxa de câmbio, taxa mínima de atratividade e montante anual de energia de contrato. De posse dos resultados da análise de sensibilidade, propôs-se um contexto otimista para instalação da usina híbrida em Bom Jesus da Lapa. Nesta hipótese, modifica-se os mesmos parâmetros que foram variados na análise de sensibilidade univariada para valores mais positivos. Neste caso, todos os indicadores econômicos mencionados apontam a viabilidade econômica e probabilidade de não retorno do investimento igual a zero, independentemente do fluxo de caixa adotado. Cabe destacar que os modelos adotados são específicos para o Brasil, mas eles podem ser adaptados para outros países. Isto posto, este estudo resultará em uma ferramenta para a tomada de decisão, especialmente no contexto das energias renováveis e das usinas híbridas, ainda incipientes no Brasil.
-
Mostrar Abstract
-
The continuous increase in electricity consumption, coupled with growing concerns about energy security and the need to reduce greenhouse gas emissions, justifies the complexity and challenge of the current national and global scenario. In this context, renewable energy technologies such as Photovoltaic Solar (PV) and Concentrated Solar Power (CSP) are characterized as sustainable and environmentally friendly solutions to meet the growing demand for energy, both in Brazil and globally. Considering these factors, the idea for this study emerged, aiming to conduct a risk analysis of investments in electricity generation through CSP + PV hybrid plants, which utilize: i) solar tower topology for CSP; ii) PV plant; and iii) thermal storage and battery systems. For each plant, a risk analysis methodology will be developed that: i) employs stochastic models for generating synthetic series of the random variables that influence energy production and economic viability; ii) models the physical system that characterizes its operation; and iii) uses the cash flow model for the economic viability analysis of the investment. The economic viability analysis of the hybrid plant is based on the discounted cash flow (FCD) model for the firm (FCLE) and for the shareholders (FCLA). It will be carried out considering that the electricity produced will be sold in the Regulated Contracting Environment (ACR). Additionally, this study considers the legislative and tax particularities associated with selling energy in the ACR. The results provide information on the generation potential and the economic viability indicators of the investment. In the initial scenario proposed for the hybrid plant, the mentioned economic indicators pointed to economic infeasibility, regardless of the cash flow model adopted. Given this situation, and with the objective of evaluating how the main parameters affect economic viability, a univariate sensitivity analysis was performed for the net present value for FCLE and FCLA of the following parameters: electricity sale price in the ACR, CAPEX, exchange rate, minimum attractive rate, and annual energy contract amount. Based on the sensitivity analysis results, an optimistic context for the installation of the hybrid plant in Bom Jesus da Lapa was proposed. In this hypothesis, the same parameters varied in the univariate sensitivity analysis are modified to more positive values. In this case, all the mentioned economic indicators point to economic feasibility and a zero probability of investment non-return, regardless of the cash flow model adopted. It is worth noting that the models adopted are specific to Brazil but can be adapted to other countries. Therefore, this study will result in an decision-making tool, especially in the context of renewable energy and hybrid plants, which are still emerging in Brazil.
|
|
11
|
-
PEDRO HENRIQUE DORNELAS ALMEIDA
-
The α-F Composite Distribution with Pointing Errors: Characterization, Performance and Applications
-
Orientador : HUGERLES SALES SILVA
-
MEMBROS DA BANCA :
-
UGO SILVA DIAS
-
DANIEL COSTA ARAUJO
-
ROBSON DOMINGOS VIEIRA
-
TARCISIO FERREIRA MACIEL
-
Data: 27/09/2024
-
-
Mostrar Resumo
-
The composite fading distribution α-F with pointing errors is proposed in this work. New expressions for the probability density function and cumulative distribution function of the envelope/instantaneous signal-to-noise ratio (SNR), higher-order moments, and moment generation function of the instantaneous SNR are derived. Based on the above-mentioned statistics, expressions for the outage probability, symbol error probability, and ergodic channel capacity are obtained. The asymptotic analyses are also provided. Several scenarios were studied, such as the application of the α-F model with pointing errors in an emerging wireless system, i.e., reconfigurable intelligent surfaces (RIS), a Cascaded and Sum of Cascaded scenario, which refers to multiple signal relay stations, and a scenario using non-orthogonal multiple access (NOMA), facilitating access to many users. Several curves, corroborated by Monte Carlo simulations, are presented for different values that characterize the channel parameters and pointing error.
-
Mostrar Abstract
-
A distribuição de desvanecimento composta α-F com erros de apontamento é proposta neste trabalho. Novas expressões são derivadas para a função densidade de probabilidade e função de distribuição cumulativa do envelope/relação sinal-ruído instantânea (SNR), momentos de ordem superior e função geratriz de momentos da SNR instantânea. Com base nas estatísticas mencionadas acima, expressões são obtidas para a probabilidade de indisponibilidade, probabilidade de erro de símbolo e capacidade ergódica do canal. Análises assintóticas também são fornecidas. Diversos cenários são estudados, como a aplicação do modelo α-F com erros de apontamento em cenários com múltiplos saltos, superfícies inteligentes reconfiguráveis (RIS) e sistemas de acesso múltiplo não ortogonal (NOMA). Diversas curvas, corroboradas por simulações de Monte Carlo, são apresentadas para diferentes valores que caracterizam os parâmetros do canal. Todas as expressões deduzidas neste trabalho são inéditas.
|
|
12
|
-
Ricardo Bauchspiess
-
A Degradation-Robust Deep Learning Framework for MRI Computer-Aided Brain Tumor Diagnosis
-
Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
-
MEMBROS DA BANCA :
-
DANIEL GUERREIRO E SILVA
-
FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
-
CRISTIANO JACQUES MIOSSO RODRIGUES MENDES
-
FÁTIMA NELSIZEUMA SOMBRA DE MEDEIROS
-
Data: 12/11/2024
-
-
Mostrar Resumo
-
Tumores cerebrais são crescimentos anormais de células do cérebro ou do sistema nervoso central, os quais são responsáveis por uma estimativa de mais de 200.000 mottes por ano 19 mundo todo. O prognóstico para pacientes com câncer cerebral pode, porém, ser melhorado com diagnóstico e tratamento precoce. O teste mais recomendado para o diagnóstico de tumores cerebrais é a ressonância magnética (RM) cranial e métodos de inteligência artificial (TA) demonstraram potentcial em aumentar a eficiência de radiologistas e reduzir o erro humano no diagnóstico de tumores do cérebro a partir de imagena de ressonância magnética, Assiu como em outras modalidades de imagens, ressonâncias magnéticas podem ser afetadas por dia-torções ou degradações que pioram a utilidade clínica desses imagens e prejudicam métodos automáticos de diagnóstico por imagem. Para obter um diagnóstico de tumor cerebral a partir de imagens de ressonância magnética 2D de forma robusta contra degradações de imagens, nós propomos uma solução em duas etapas. Na primeira etapa nós utilizamos um modelo trans-former em forma de U, chamado Uformer, para remover distorções e restaurar as imagens e em seguida utilizamos uma tede neural convolucional (RNCi, particularmeute a Efficient) et. para classificar a imagem restaurada e obter um diagnóstico quanto a tumotes cerebrais. Para treinar o modelo de restauração de imageus, nos definitos uma função para gerar um número arbitrário de tipos de distorções em imagens, assim tremando o modelo para remover combinações arbitrárias de degradações em imagens de ressonancia magnética do cérebro. Nossa solução foi testada em imagens coms degradações artifictes e em 5 «atasets que incluiam ins-gens degradadas. Os experimentos testaram dilementes métodos de gerar imagens degradadas para treinamento dos modelos e compararam dilerentes modelos de podes neurais profundas para restauração e classificação de imagens.
-
Mostrar Abstract
-
Brain tumors are abnormal cell growths that affect the brain or central nervous system (CNS) and are estimated to be the cause of death of over 200,000 individuals each year. Prognosis for brain tumor patients can, however, be improved by early diagnosis and treatment. The gold standard test for brain tumor diagnosis is the cranial Magnetic Resonance Imaging (MRI) and artificial intelligence (AI) methods have shown potential to improve radiologist efficiency and reduce human errors by predicting brain tumor diagnosis from Magnetic Resonance (MR) images. Like other imaging methods, MRI is susceptible to image distortions or degradations that impair the clinical utility of such images and negatively impact Al methods used to analyse brain MRI images. To obtain degradation-robust brain diagnosis from 2D MRI images we propose a two stage diagnosis method. Pirst we use a U-shaped transformer model, called Uformer, to perform image restoration, removing image distortions, and then we use Convolu-tional Neural Network (CNN) models, namely the Efficient Net, to obtain diagnosis predictions trom the restored images. To train the restoration model, we propose an sutilact generation function that trains the restoration model to restore images allected by an arbitrary number of degradation types. We tested our solution on artificially degraded images and ou 5 different brain tumor MRI datasets, which included image degradations, and also compared the perior- mance of different methods to generate the traiming data and deep lenring model to pertorm image restoration and classiticution.
|
|
13
|
-
Josaphat Desbas
-
LOW-COST MICROWAVE SENSOR FOR DETECTING THE FIRST GENERATION OF MICROPLASTIC IN AQUEOUS MEDIA
-
Orientador : ACHILES FONTANA DA MOTA
-
MEMBROS DA BANCA :
-
ACHILES FONTANA DA MOTA
-
ADONIRAN JUDSON DE BARROS BRAGA
-
AUGUSTO MARTINS
-
VINICIUS MARRARA PEPINO
-
Data: 28/11/2024
-
-
Mostrar Resumo
-
RESUMO A poluição por microplásticos tornou-se um problema ambiental crítico, com implicações para os ecossistemas e a saúde humana. Microplásticos, definidos como partículas de plástico menores que 5 mm, são encontrados em diversos ambientes, como oceanos, riose até mesmo naáguapotável.Estetrabalhodedissertaçãovisadesenvolvereutilizarressoadores interdigitais de microondas para a detecção de microplásticos na água, oferecendo uma abordagem sensível, de baixo custo e eficaz para monitoramento ambiental. Foram apresentados dois modelos de ressoadores RF do tipo microstrip, escolhidos após um estudo meticuloso das diferentes tecnologias de linha de transmissão, como Microstrip, Stripline, Coplanar Waveguide (CPW) e Slot Line, para determinar qual se encaixaria melhor nos objetivos de detecção de microplásticos. Após essa análise, foi calculado o tamanho aproximado do circuito em função da faixa de frequência (1 a 6 GHz). A tecnologia microstrip foi escolhida, simulada no software HFSS, onde a topologia do circuito foi ajustada para atingir a melhor frequência de ressonância. Após a otimização, foram registradas duas frequências de ressonância de 3.313 GHz e 4.057 GHz, com um fator de qualidade de 47.41. Esses resultados motivaram o desenvolvimento de um segundo modelo com um efeito mais capacitivo para criar umcampomagnéticomaiornoressoador.Ambososcircuitosforamcaracterizados virtualmente no HFSS em condições variadas: circuito vazio, circuito com vidro de diferentes espessuras (usado para isolar a água do cobre e evitar curto-circuito), canal feito por PDMS (vazio, com água e com água poluída com microplástico). Os resultados dos dois circuitos mostraram diferenças significativas na presença e ausência do poluente. A próxima etapa foi a fabricação dos circuitos utilizando o método de "fotolitografia". Nesse processo, uma tinta fotossensível foi aplicada nas placas de PCB através de um "spinner" com rotação de 2000 rpm para garantir a uniformidade da tinta sobre o PCB. Uma vez seca e protegida da exposição à luz, a placa foi exposta à luz UV por 5 a 8 minutos com uma máscara do circuito, seguida pela imersão numa solução reveladora. Após o circuito ser revelado, a placa foi mergulhada numa solução de percloreto de ferro para corroer o cobre que não fazia parte do circuito. Por fim, a tinta remanescente foi removida para revelar o circuito finalizado. Com os circuitos prontos, foram realizados testes de calibração, em condições vazias, com vidro, com canal sem água, com água e, finalmente, com microplástico. Os resultados foram satisfatórios, com o Modelo 1 apresentando um deslocamento de 570 MHz ao ser testado com microplásticos de borracha de pneu, e um deslocamento de 15 MHz ao usar fragmentos de garrafa plástica. O Modelo 2, testado nas mesmas condições, apresentou deslocamentos de frequência de X MHz para o microplástico de pneu e Y MHz para o microplástico de garrafa. Os circuitos demonstraram ser versáteis e promissores, gerando resultados no mínimo aceitáveis em outros experimentos, como a verificação da concentração de gordura e ferro no leite materno. Isso é possível devido às propriedades eletromagnéticas únicas de cada material, que permitem a detecção precisa através dos ressoadores desenvolvidos.
-
Mostrar Abstract
-
Microplastic pollution has become a critical environmental issue, with widespread implications for ecosystems and human health. Microplastics, defined as plastic particles smaller than 5 mm, are found in oceans, rivers, and even drinking water. Their pervasive presence in the environment necessitates effective detection methods to mitigate their impact. This research focuses on the development and use of interdigital microwave resonators to detect microplastics in water, offering a novel, cost-effective, and sensitive approach for environmental monitoring. Two interdigital resonators were designed and tested for their ability to detect microplastics by analyzing shifts in resonance frequency and quality factor (Q-factor). Model 1, which exhibited a Q-factor of 47.41, provided a significant frequency shift when exposed to microplastics, demonstrating high sensitivity. Model 2 also achieved promising results of xx, with a slightly different Q-factor, providing a comparative analysis of the two designs. Several experimental tests were conducted using two types of microplastics commonly found in the environment: ground-tire rubber (GTR) and plastic bottle fragments. GTR particles, with dimensions of approximately 0.3 x 0.3 x 0.3 mm and a complex permittivity of ε = 3.65 − 0.60j, caused a resonance frequency shift of 570 MHz for Model 1 and 555 MHz for Model 2. Similarly, a plastic bottle fragment, with dimensions between 150 μm and 300 μm, resulted in a frequency shift of 15 MHz for Model 1 and 55 MHz for Model 2. In addition to microplastic detection, these resonators demonstrated potential for broader applications, including the analysis of oil mixtures and ongoing studies on milk fat and iron concentration in breast milk. The versatility of the RF resonators presented in this work highlights their potential as a valuable tool for detecting a range of substances, making them highly adaptable for environmental and health-related applications.
|
|
14
|
-
Rebeka Passos Gomes
-
Analysis of the Impact of Integrating Distributed Energy Resources on Distribution System Reliability
-
Orientador : ANESIO DE LELES FERREIRA FILHO
-
MEMBROS DA BANCA :
-
ANESIO DE LELES FERREIRA FILHO
-
ERIKA PEQUENO DOS SANTOS
-
FRANCIS ARODY MORENO VASQUEZ
-
GABRIEL SANTOS BOLACELL
-
Data: 29/11/2024
-
-
Mostrar Resumo
-
A avaliação da confiabilidade de microrredes apresenta desafios maiores do que os sistemas de energia tradicionais, devido à sua estrutura e modos operacionais mais complexos. Nesse sentido, este estudo apresenta uma metodologia para identificar os impactos técnicos que microrredes compostas por geração distribuída fotovoltaica e Sistema de Armazenamento de Energia em Baterias podem provocar na avaliação da confiabilidade de sistemas de distribuição. O estudo utilizou simulações probabilísticas empregando o método de Monte Carlo. O algoritmo foi inicialmente validado usando um sistema com solução analítica estabelecida. Posteriormente, cenários com diferentes níveis de geração fotovoltaica (PV) e sistema de armazenamento de energia de bateria (BESS) foram simulados em uma rede de distribuição real brasileira para avaliar seus efeitos e identificar aqueles que trazem os maiores benefícios para a confiabilidade do sistema. Foi implementada uma operação de ilhamento variável no tempo, onde as áreas de fornecimento de energia da operação de ilhamento são alteradas dinamicamente de acordo com as cargas e a saída dos Recursos Energéticos Distribuídos (RED). Os resultados da validação do código revelaram um erro máximo de -4,10%, demonstrando a robustez do código e a confiabilidade dos resultados. Os resultados da aplicação do método no estudo de caso mostram que, em cenários com apenas a inserção do sistema FV, os benefícios em confiabilidade, ao variar o nível de penetração, são mínimos para as microrredes e o alimentador completo. Alternativamente, variar a penetração dos sistemas BES influencia o desempenho da bateria ao garantir um estado de carga (SoC) alto e estável, o que é crucial para minimizar instabilidades e aumentar a confiabilidade do sistema de distribuição no contexto da integração FV. No entanto, para penetrações que excedem 50%, há uma variação mínima adicional na estabilidade, devido à estabilização do estado do SoC. Os índices que avaliam o desempenho da microrrede durante as operações de ilhamento com variação temporal indicam um aprimoramento na utilização de cargas e RED disponível durante cenários de falha, com benefícios adicionais insignificantes do BES em níveis elevados de penetração
-
Mostrar Abstract
-
The reliability evaluation of microgrids presents greater challenges than traditional power systems, due to their more complex structure and operating modes. In this sense, this study presents a methodology to identify the technical impacts that microgrids composed of photovoltaic distributed generation and Battery Energy Storage Systems can cause in the evaluation of the reliability of distribution systems. The study utilized probabilistic simulations employing the Monte Carlo method. The algorithm was initially validated using a system with established analytical solution. Subsequently, scenarios with different levels of photovoltaic generation (PV) and battery energy storage system (BESS) were simulated in a real Brazilian distribution network to evaluate their effects and identify those that bring the greatest benefits to system reliability. It was implemented a time-varying islanding operation, where the power supply areas of the islanding operation are dynamically changed according to the loads and the DER output. The code validation results revealed a maximum error of -4.10%, demonstrating the code’s robustness and the reliability of the results. The results of applying the method in the case study show that, in scenarios with only the insertion of PV system, the benefits in reliability, when varying the penetration level, are minimal for the microgrids and the complete feeder. Alternatively, varying the penetration of BES systems influences the battery performance by ensuring a high and stable state of charge (SoC), which is crucial for minimizing instabilities and enhancing the reliability of the distribution system in the context of PV integration. However, for penetrations exceeding 50%, there is minimal further variation in stability, due to the stabilization of the State of SoC. The indices that assess the microgrid performance during time-varying islanding operations indicate an enhancement in the utilization of loads and available DER during failure scenarios, with negligible additional benefits of BES at elevated penetration levels.
|
|
15
|
-
DOUGLAS RAFAEL DE CASTRO AGUIAR
-
RECOMENDAÇÃO ITU-R P.1812-7: UMA PROPOSTA DE MAPEAMENTO DE OBSTRUÇÕES
-
Orientador : UGO SILVA DIAS
-
MEMBROS DA BANCA :
-
Agostinho Linhares de Souza Filho
-
DANIEL COSTA ARAUJO
-
UGO SILVA DIAS
-
WALTER DA CRUZ FREITAS JUNIOR
-
Data: 16/12/2024
-
-
Mostrar Resumo
-
O aprimoramento das telecomunicações é essencial para o desenvolvimento econômico e social na sociedade moderna, conectando pessoas, impulsionando inovações e facilitando serviços. No Brasil, com suas vastas áreas de terrenos complexos e variados, de regiões urbanizadas a densas florestas, a eficiência do planejamento das telecomunicações depende de modelos de predição de propagação de sinal precisos. Neste contexto, o modelo ITU-R P.1812-7 é uma ferramenta de extremo valor, mas sua eficácia pode ser limitada em ambientes com grande variação de clutter (obstruções como vegetação e edificações). Para aprimorar a acurácia das perdas causadas por essas obstruções, este trabalho propõe um sistema que utiliza o dataset MCD12Q1 da National Aeronautics and Space Administration (NASA) para realizar o mapeamento de clutter, fornecendo informações detalhadas sobre o terreno para alimentar o modelo ITU-R P.1812-7. Sendo assim, o sistema proposto foi projetado para otimizar as predições do ITU-R P.1812-7. Para validar sua eficácia, dados da Agência Nacional de Telecomunicações (ANATEL) e do Instituto Brasileiro de Geografia e Estatística (IBGE) foram utilizados, comparando as predições de perdas de propagação obtidas com o sistema otimizado em relação a abordagens mais simples de mapeamento de clutter. Os resultados mostraram uma melhoria significativa na precisão, com a presença de erros máximos entre as abordagens em até 45dB em alguns cenários e Mean Absolute Error (MAE) superior a 10dB em certos estados da federação. Isso destaca a capacidade do sistema em lidar com a complexidade do terreno brasileiro e melhorar a acurácia em regiões desafiadoras. Esses achados sugerem que o uso de dados de alta resolução para mapear clutter pode otimizar modelos de predição de propagação, beneficiando o planejamento das telecomunicações em áreas de difícil acesso e, também, a sociedade brasileira, ao poder proporcionar maior conectividade, inclusão digital e eficiência no uso de tecnologias, essenciais para o desenvolvimento do país.
-
Mostrar Abstract
-
The enhancement telecommunications is crucial for both economic and social progress in contemporary society, as it fosters connectivity among individuals, stimulates innovation, and enables service delivery. Within Brazil, characterized by its extensive and diverse land cover that ranges from urbanized areas to dense forests, the effectiveness of telecommunications planning relies on precise models for predicting signal propagation. Within this context, the ITU-R P.1812- 7 model is a very useful tool, however its efficiency might be limited in environments presenting high variability of clutter including features such as vegetation and buildings. In order to refine the losses provoked by such obstructions, this work aims at developing a system using the MCD12Q1 dataset from National Aeronautics and Space Administration (NASA) for clutter mapping, which provides detailed information on terrain to feed the ITU-R P.1812-7 model. For that reason, the proposed system was designed to optimize ITU-R P.1812-7 predictions. To validate its effectiveness, data from the National Telecommunications Agency (ANATEL) and the Brazilian Institute of Geography and Statistics (IBGE) were used, comparing the propagation loss predictions obtained through the optimized system in relation to simpler clutter mapping approaches. The results showed a significant increase in precision, with differences between methods peaking at up to 45dB in some cases and Mean Absolute Error (MAE) surpassing 10dB in certain states of the federation. This testifies that the system is able to master the subtleties of Brazil and increase the accuracy even in complex terrains. So, the results show that mapping clutter using high-resolution data should help to improve the propagation signal prediction models, assisting in telecommunications planning for diverse areas and have a positive impact on Brazilian society by facilitating better connectivity, digital inclusion, and greater efficiency in the use of technology.
|
|
16
|
-
YASMIN DA COSTA FERREIRA AVELINO
-
Empirical Models for CubeSat Stability Indices based on the Gravity-Gradient Stabilization
-
Orientador : RENATO ALVES BORGES
-
MEMBROS DA BANCA :
-
GEOVANY ARAUJO BORGES
-
HENRIQUE CEZAR FERREIRA
-
ROBERTO DE SOUZA BAPTISTA
-
SIMONE BATTISTINI
-
Data: 20/12/2024
-
-
Mostrar Resumo
-
Optimizing CubeSat subsystems for size, weight, power consumption, and performance is essential given the inherent constraints of CubeSat missions. The CubeSat Design Specifications (CDS) allow for mechanical designs with inertia values across five stability regions on the Gravity-Gradient Stability Map (GGSM): Lagrange, Debra-Delp, Pitch, Roll-Yaw, and Unsteady. This work investigates the application of Gravity-Gradient Stabilization (GGS), which utilizes external gravitational torque for passive stabilization, by analyzing rotational kinetic energy patterns and introducing empirical models for stability indices based on the GGSM, principal moments of inertia, and characteristic equation roots for CubeSat standards. Python-based numerical simulations and polynomial curve fitting validate the effectiveness of these models, providing a robust framework for evaluating mechanical designs and identifying configurations that enhance CubeSat attitude stability. One application of these empirical model-based indices compares GGS with commonly used active Attitude Determination and Control Systems (ADCS) - specifically magnetorquers and reaction wheels - within the CubeSat standard. The analysis focuses on control performance, power consumption, and implications for design optimization, the latter useful for structural modeling. The results indicate that configurations with lower rotational kinetic energy improve control response and overall efficiency, demonstrating the potential advantages of integrating active attitude control and GGS using the proposed empirical model-based indices. Case study scenarios were simulated considering a 500 km altitude circular orbit and were performed using the two-body method. The impact of GGS on the power generation of CubeSats was also considered in the numerical simulations. The results compare the performance of gravity gradient stability regions in terms of power generation for different CubeSat sizes. The results demonstrated that GGS provides uniform power generation for all GGSM regions. Numerical simulations were performed using Python and also the Systems Tool Kit (STK) software.
-
Mostrar Abstract
-
Optimizing CubeSat subsystems for size, weight, power consumption, and performance is essential given the inherent constraints of CubeSat missions. The CubeSat Design Specifications (CDS) allow for mechanical designs with inertia values across five stability regions on the Gravity-Gradient Stability Map (GGSM): Lagrange, Debra-Delp, Pitch, Roll-Yaw, and Unsteady. This work investigates the application of Gravity-Gradient Stabilization (GGS), which utilizes external gravitational torque for passive stabilization, by analyzing rotational kinetic energy patterns and introducing empirical models for stability indices based on the GGSM, principal moments of inertia, and characteristic equation roots for CubeSat standards. Python-based numerical simulations and polynomial curve fitting validate the effectiveness of these models, providing a robust framework for evaluating mechanical designs and identifying configurations that enhance CubeSat attitude stability. One application of these empirical model-based indices compares GGS with commonly used active Attitude Determination and Control Systems (ADCS) - specifically magnetorquers and reaction wheels - within the CubeSat standard. The analysis focuses on control performance, power consumption, and implications for design optimization, the latter useful for structural modeling. The results indicate that configurations with lower rotational kinetic energy improve control response and overall efficiency, demonstrating the potential advantages of integrating active attitude control and GGS using the proposed empirical model-based indices. Case study scenarios were simulated considering a 500 km altitude circular orbit and were performed using the two-body method. The impact of GGS on the power generation of CubeSats was also considered in the numerical simulations. The results compare the performance of gravity gradient stability regions in terms of power generation for different CubeSat sizes. The results demonstrated that GGS provides uniform power generation for all GGSM regions. Numerical simulations were performed using Python and also the Systems Tool Kit (STK)
|
|
|
Teses |
|
1
|
-
Stephanie Miranda Soares
-
An analytical model for IEEE 802.11ah networks under the restricted access window mechanism and Rayleigh fading channel
-
Orientador : MARCELO MENEZES DE CARVALHO
-
MEMBROS DA BANCA :
-
MARCELO MENEZES DE CARVALHO
-
MYLENE CHRISTINE QUEIROZ DE FARIAS
-
PAULO ROBERTO DE LIRA GONDIM
-
JULIANA FREITAG BORIN
-
RENATO MARIZ DE MORAES
-
Data: 01/04/2024
-
-
Mostrar Resumo
-
The IEEE 802.11ah is an amendment to the IEEE 802.11 standard to support the growth of the Internet of Things (IoT). One of its main novelties is the restricted access window (RAW), which is a channel access feature designed to reduce channel contention by dividing stations into RAW groups. Each RAW group is further divided into RAW slots, and stations only attempt channel access during the RAW slot they were assigned to. In this paper, we propose a discrete-time Markov chain model to evaluate the average aggregate throughput of IEEE 802.11ah networks using the RAW mechanism under saturated traffic and ideal channel conditions. The proposed analytical model describes the behavior of an active station within its assigned RAW slot. A key aspect of the model is the consideration of the event of RAW slot time completion during a station’s backoff operation. We study the average aggregate network throughput for various numbers of RAW slots and stations in the network. The numerical results derived from our analytical model are compared to computer simulations based on an IEEE 802.11ah model developed for the ns-3 simulator by other researchers, and its performance is also compared to two other analytical models proposed in the literature. The presented results indicate that the proposed analytical model reaches the closest agreement with independently-derived computer simulations.
-
Mostrar Abstract
-
Muitas tecnologias promissoras foram desenvolvidas desde a concepção da Internet das Coisas (IoT, do inglês Internet of Things). À luz do crescimento da IoT, o IEEE 802.11ah é uma alteração ao padrão IEEE 802.11 para enfrentar os principais desafios da IoT, que são a conectividade de muitos dispositivos a um único ponto de acesso (AP, do inglês Access Point), transmissões a longas distãncias e recursos de energia limitados. Deste modo, o IEEE 802.11ah introduz novos recursos nas camadas Física e MAC (do inglês Medium Access Control) para atender aos requisitos de IoT. Na camada Física, houve modificações para permitir a operação em faixas de frequência abaixo de 1GHz e, na camada MAC, o padrão introduz mecanismos de economia de energia para melhorar o desempenho em redes densas. Uma de suas principais inovações é a janela de acesso restrito (RAW, do inglês Restricted Access Window), que é um recurso de acesso ao canal projetado para reduzir a contenção de canais, dividindo as estações em grupos RAW. Cada grupo RAW é dividido em slots RAW, e somente as estações atribuidas a um dado slot RAW podem tentar o acesso ao canal durante o intervalo de tempo do slot RAW. Nesta tese, propomos primeiro um modelo de cadeia de Markov de tempo discreto para avaliar a vazão média agregada de redes IEEE 802.11ah que utilizam o mecanismo RAW, sob tráfego saturado e condições de canal ideal. O modelo analítico proposto descreve o comportamento de uma estação ativa dentro do seu slot RAW atribuído. O principal aspecto do modelo é a consideração do evento de conclusão do tempo de slot RAW durante o processo de backoff de uma estação. Os resultados numéricos derivados do nosso modelo analítico são comparados com simulações computacionais independentes baseadas em um módulo do IEEE 802.11ah desenvolvido para o simulador ns-3 por outros pesquisadores. Estudamos a vazão média agregada da rede para vários números de slots e estações RAW na rede e confirmamos a importância da probabilidade de término do slot RAW em nosso modelo analítico. Para isso, realizamos esta comparação em dois casos: um em que esta probabilidade foi considerada e outro em ela não foi considerada no modelo analítico. Além disso, nosso modelo analítico também é comparado com outros dois modelos analíticos propostos na literatura. Os resultados apresentados indicam que o modelo analítico proposto atinge a maior concordância com simulações computacionais derivadas independentemente. Além disso, estendemos o modelo de cadeia de Markov de tempo discreto para considerar o impacto do desvanecimento Rayleigh e da perda de caminho em grande escala na operação de redes IEEE 802.11ah. Também validamos o modelo analítico proposto por meio de simulações ns-3 e estudamos o desempenho da rede em termos de vazão em diferentes cenários, variando os esquemas de modulação e codificação (MCS, do inglês Modulation and Coding Scheme), tamanho do pacote e distância ao ponto de acesso (AP, do inglês Access Point). O modelo analítico proposto previu com precisão o desempenho da rede na maioria dos cenários. Porém, em alguns casos, observamos erros percentuais mais elevados entre o modelo analítico e as simulações computacionais. Com as simulações computacionais, percebemos que houve perdas de pacotes as quais o modelo analítico não prevê. Propomos uma expressão para ajustar a duração do slot RAW com base na distância das estações até o AP e a eficiência das estratégias de agrupamento foi medida em termos da justiça de Jain. Com nossos estudos de caso, demonstramos a necessidade de ajustar a duração do slot RAW com base na distância entre as estações e o AP para obter justiça de acesso ao canal entre os grupos.
|
|
2
|
-
Mayana Wanderley Pereira
-
ADVANCING FAIRNESS AND DIFFERENTIAL PRIVACY IN MACHINE LEARNING FOR SOCIALLY RELEVANT APPLICATIONS
-
Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
-
MEMBROS DA BANCA :
-
FABIO LUCIO LOPES DE MENDONCA
-
GEORGES DANIEL AMVAME NZE
-
MARIO REBELO LARANGEIRA JUNIOR
-
RICARDO FELIPE CUSTODIO
-
WILLIAM FERREIRA GIOZZA
-
Data: 26/04/2024
-
-
Mostrar Resumo
-
Esta tese investiga técnicas de aprendizado de máquina que preservam a privacidade para aplicações socialmente relevantes, focando em duas áreas específicas: detecção e identificação de Mídia de Abuso Sexual Infantil (CSAM) e geração de conjuntos de dados sintéticos que com foco em desenvolvimento ético e privado de inteligencia artifical. Abordamos o desafio de desenvolver soluções baseadas em aprendizado de máquina para detecção de CSAM enquanto consideramos as restrições éticas e legais do uso de imagens explícitas para treinamento do modelo. Para contornar essas limitações, propomos uma nova estrutura que utiliza metadados de arquivo para identificação de CSAM. Nossa abordagem envolve o treinamento e avaliação de modelos de aprendizado de máquina prontos para implantação baseados em caminhos de arquivo, demonstrando sua eficácia em um conjunto de dados de mais de um milhão de caminhos de arquivo coletados em investigações reais. Além disso, avaliamos a robustez de nossa solução contra ataques adversáriais e exploramos o uso de privacidade diferencial para proteger o modelo de ataques de inferência de modelo sem sacrificar a utilidade. Na segunda parte desta tese, investigamos as oportunidades e desafios do uso da geração de dados sintéticos no contexto do aumento da adoção de regulamentações globais de privacidade. Dados sintéticos são dados que imitam dados reais sem replicar informações pessoais, e oferecem diversas possibilidades para análise de dados e tarefas de aprendizado de máquina. No entanto, pouco se sabe sobre os impactos do uso de conjuntos de dados sintéticos em pipelines de aprendizado de máquina, especialmente quando apenas dados sintéticos estão disponíveis para treinamento e avaliação de modelo. Este estudo examina a relação entre privacidade diferencial e viés social dos algoritmos aprendizado de máquina, explorando como diferentes métodos de geração de dados sintéticos afetam o viés social dos algoritmos e comparando o desempenho de modelos treinados e testados com dados sintéticos versus dados reais. Os resultados contribuem para uma melhor compreensão do uso de dados sintéticos em pipelines de aprendizado de máquina e seu potencial para avançar o estado da arte em diversas áreas.
Como trabalho futuro, pretendemos desenvolver protocolos para a geração de conjuntos de dados sintéticos a partir de fontes distribuídas com garantias de privacidade diferencial, sem a necessidade de uma parte confiável. O objetivo desta abordagem é permitir que detentores de dados compartilhem seus dados sem violar restrições éticas e legais.
-
Mostrar Abstract
-
This thesis investigates privacy-preserving machine learning techniques for socially relevant applications, focusing on two specific areas: the detection and identification of Child Sexual Abuse Media (CSAM) and the generation of synthetic datasets that respect privacy and fairness concerns. We address the challenge of developing machine learning-based solutions for CSAM detection while considering the ethical and legal constraints of using explicit imagery for model training. To circumvent these limitations, we propose a novel framework that leverages file metadata for CSAM identification. Our approach involves training and evaluating deploymentready machine learning models based on file paths, demonstrating its effectiveness on a dataset of over one million file paths collected from actual investigations. Additionally, we assess the robustness of our solution against adversarial attacks and explore the use of differential privacy to protect the model from model inference attacks without sacrificing utility. In the second part of this thesis, we investigate the opportunities and challenges of utilizing synthetic data generation in the context of increasing global privacy regulations. Synthetic data, which mimics real data without replicating personal information, offers various possibilities for data analysis and machine learning tasks. However, little is understood about the impacts of using synthetic data sets in machine learning pipelines, especially when only synthetic data is available for training and evaluation. This study examines the relationship between differential privacy and machine learning fairness, exploring how different synthetic data generation methods affect fairness and comparing the performance of models trained and tested with synthetic data versus real data. The findings contribute to a better understanding of synthetic data usage in machine learning pipelines and its potential to advance research across various fields. As future work, we aim to develop protocols for generation of synthetic data sets from distributed sources with differentially private guarantees, without the need for a trusted dealer. The goal of this approach is to enable data holders to share data without violating legal and ethical restrictions.
|
|
3
|
-
BRUNO MARTINS CALAZANS SILVA
-
DESIGN OF ARBITRARY ORDER DYNAMICAL OUTPUT FEEDBACK PROTOCOLS FOR MULTI-AGENT SYSTEMS OVER DIRECTED COMMUNICATION GRAPHS
-
Orientador : JOAO YOSHIYUKI ISHIHARA
-
MEMBROS DA BANCA :
-
HENRIQUE CEZAR FERREIRA
-
JOAO YOSHIYUKI ISHIHARA
-
JOSE ALFREDO RUIZ VARGAS
-
REINALDO MARTINEZ PALHARES
-
RODRIGO CARDIM
-
Data: 17/07/2024
-
-
Mostrar Resumo
-
Este trabalho propõe novas condições para controlar sistemas multiagentes homogêneos utilizando protocolos de realimentação dinâmica de saída. Os agentes são descritos por uma dinâmica linear e os gráficos direcionados modelam a rede de comunicação. Primeiramente, novas condições suficientes para projetar protocolos de realimentação dinâmica de saída de ordem arbitrária - incluindo realimentação de saída estática como um caso particular - são propostas para consenso H∞ para agentes sujeitos a distúrbios externos. Os agentes podem ou não sofrer perturbações paramétricas e comunicar-se em topologias politópicas incertas. Finalmente, propomos condições que projetam protocolos para rastreamento de formação de saída variável no tempo. Ao considerar uma representação politópica descrevendo as informações da rede, apresentamos um procedimento que permite o projeto de ganhos de protocolo para uma família de topologias independente do número de agentes. Todas as condições propostas são baseadas em Desigualdades Matriciais Lineares (LMIs, do inglês Linear Matrix Inequalities). Exemplos numéricos ilustram a eficácia da abordagem proposta.
-
Mostrar Abstract
-
This work proposes new conditions for controlling homogeneous multi-agent systems using dynamic output feedback protocols. The agents are described by linear dynamics, and directed graphs model the communication network. First, new sufficient conditions for designing dynamic output feedback protocols of arbitrary order - including static output feedback as a particular case - are proposed for H∞ consensus for agents subject to external disturbances. The agents may experience parametric perturbations and communicate in uncertain polytopic topologies. Finally, we propose conditions that design protocols for time-varying output formation tracking. By considering a polytopic representation describing the network information, we present a procedure that allows the design of protocol gains for a family of topologies regardless of the number of agents. All proposed conditions are based on Linear Matrix Inequalities (LMIs). Numerical examples illustrate the effectiveness of the proposed approach.
|
|
4
|
-
CAIO MULLER SANTOS RIBEIRO
-
Double-Ended Traveling Wave-Based Method for Pole-to-Ground Fault Location on HVDC Transmission Lines
-
Orientador : KLEBER MELO E SILVA
-
MEMBROS DA BANCA :
-
ANESIO DE LELES FERREIRA FILHO
-
FLAVIO BEZERRA COSTA
-
FRANCIS ARODY MORENO VASQUEZ
-
JOSE CARLOS DE MELO VIEIRA JUNIOR
-
KLEBER MELO E SILVA
-
Data: 27/09/2024
-
-
Mostrar Resumo
-
Nesta tese, propõe-se um método de localização de faltas polo-terra baseado na teoria das ondas viajantes usando dados de dois terminais para linhas de transmissão de alta tensão em corrente contínua. Faltas polo-terra são mais frequentes e críticas do que faltas polo-polo nesse tipo de linha de transmissão. Dessa forma, é crucial localizar com precisão faltas polo-terra para que essas linhas sejam reparadas rapidamente após desligamentos não programados. Ao realizar uma análise da propagação de ondas viajantes lançadas por faltas polo-terra, descobriuse que as ondas refratadas no ponto de falta podem ser detectadas usando um critério baseado em amplitude e polaridade. Com base nessa descoberta, propõe-se um método de localização de faltas polo-terra, livre da necessidade de configurar a velocidade de propagação das ondas viajantes e de meios de sincronização de dados. Foram realizadas simulações de faltas no sistema de alta tensão em corrente contínua do Rio Madeira usando o Alternative Transients Program. A linha de transmissão foi implementada usando o modelo JMarti dependente na frequência e com parâmetros distribuídos. De acordo com resultados, o método mostrou ser preciso, apresentando erros na localização das faltas menores que 0,6 km (0,02% do comprimento da linha de transmissão). Além disso, o método se revelou, realmente, imune à desalinhamentos na sincronização de dados. Além disso, o método se mostrou robusto à diferentes resistências de falta, níveis de ruído, resistividades do solo e frequências de amostragem. Por fim, através de um estudo comparativo, mostrou-se que o método é mais simples, preciso e robusto do que os métodos de localização de faltas baseados em ondas viajantes no estado da arte.
-
Mostrar Abstract
-
This thesis proposes a double-ended method based on traveling waves (TWs) for locating pole-to-ground (PG) faults on high-voltage direct current (HVDC) transmission lines. PG faults are more likely and critical than pole-to-pole (PP) faults on HVDC lines. Hence, accurate PG fault location is important to quickly restore HVDC systems after unscheduled shutdowns. An analysis of the TWs launched by PG faults reveals that refracted TWs can be easily detected at both line ends using an amplitude- and polarity-based criterion. Based on this finding, a double-ended PG fault location method free of TW propagation velocity settings and data synchronization means is proposed. Simulations in the Rio Madeira HVDC system using the Alternative Transients Program (ATP) were carried out. The transmission line was implemented using the distributed parameter frequency-dependent JMarti model. Results show that the method is accurate, presenting errors smaller than 0.6 km (0.02% of the transmission line length). Also, the method is revealed to be immune to data synchronization misalignments, being robust to different fault resistances, noise levels, soil resistivities, and sampling frequencies. Finally, a comparative study shows that the method is more simple, accurate, and robust than the state-of-the-art TW-based fault location (TWFL) methods.
|
|
5
|
-
Vladimir França Nogueira
-
Ethical and Regulatory Dimensions of the Technological Development Process of a Portable Medical Device for Diabetic Foot Treatment: From Bench to Scale Manufacturing
-
Orientador : ADSON FERREIRA DA ROCHA
-
MEMBROS DA BANCA :
-
ADSON FERREIRA DA ROCHA
-
JOAO YOSHIYUKI ISHIHARA
-
FLAVIA MARIA GUERRA DE SOUSA ARANHA OLIVEIRA
-
FÁTIMA MRUÉ
-
TALÍA SIMÕES DOS SANTOS XIMENES
-
Data: 29/11/2024
-
-
Mostrar Resumo
-
O desenvolvimento de novas tecnologias aplicadas à saúde é complexo, devido a isso a academia, o governo, a sociedade e as empresas têm se empenhado a fim de acelerar a realização da pesquisa básica e a disponibilização de novos produtos para a população. Sabe-se que o sistema regulatório brasileiro para equipamentos médicos envolve questões éticas, técnicas, regulatórias, econômicas e sociais a fim de garantir segurança e condições técnicas mínimas para atender a solução proposta de acordo com indicação de uso de forma eficaz. Nesse sentido, a pesquisa translacional em saúde (PTS) surgiu como um conjunto de ações e atividades com intuito de transferir os resultados encontrados a partir da pesquisa básica até a aprovação da tecnologia para ser disponibilizada aos usuários/pacientes por meio das etapas de translação em que foi considerado os processos regulatórios brasileiros. Objetivo: Desenvolver um arcabouço teórico em relação ao processo da PTS no ecossistema de pesquisa, desenvolvimento e inovação da Universidade Pública do Brasil e do ambiente ético e regulatório associado ao desenvolvimento de novos produtos médicos para o sistema de saúde brasileiro segundo o estudo de caso do equipamento Rapha®. Metodologia: A abordagem é composta por estratégias que inicialmente realizou o levantamento das políticas públicas com incentivo ao desenvolvimento tecnológico de equipamentos médicos pela Universidade Pública a fim de identificar o ecossistema com capacidade de inserção social e benefícios para sociedade. Nesse contexto, foi necessário caracterizar as etapas, os marcadores, as entidades e as políticas da pesquisa translacional relacionada as novas tecnologias em saúde no Brasil para produtos médicos e os aspectos éticos e regulatórios a partir do estudo de caso único do equipamento Rapha®, além do seu grau de maturidade tecnológica. Resultados: A transformação da pesquisa realizada dentro das universidades em produtos assimiláveis na assistência em saúde gerou patentes, transferências tecnológicas que estão vinculados ao processo de inovação. Desse modo, a PTS configura como processo de pesquisa não linear conforme apurado pela análise do estudo de caso do equipamento Rapha®. Entre as dificuldades encontradas foram o processo regulatório e produtivo para transição da fase T3 a T4 a fim de disponibilizar a tecnologia ao mercado brasileiro. Dessa maneira, foi identificada as etapas de tempo T0, T1, T2, T3 como resultados da translação do equipamento Rapha® ao longo do tempo. Conclusão: A PTS apresenta o desenvolvimento científico realizado a fim de possibilitar o acesso à saúde pela população por meio do ambiente de pesquisa, desenvolvimento e inovação da Universidade Pública do Brasil e do ambiente ético e regulatório associado ao desenvolvimento de novos produtos médicos para o sistema de saúde brasileiro.
-
Mostrar Abstract
-
The development of new technologies applied to health is complex, due to this the academy, the government, society and companies have been committed in order to accelerate the achievement of basic research and the availability of new products for the population. It is known that the Brazilian regulatory system for medical equipment involves ethical, technical, regulatory, economic and social issues in order to guarantee safety and minimum technical conditions to meet the proposed solution according to the indication of use effectively. In this sense, translational medical research (TMS) emerged as a set of actions and activities with the aim of transferring the results found from basic research to the approval of the technology to be made available to users/patients through the translation steps in which was considered the Brazilian regulatory processes. Objective: To develop a theoretical framework in relation to the TMS process in the research, development and innovation ecosystem of the Public University of Brazil and the ethical and regulatory environment associated with the development of new medical products for the Brazilian health system according to the case study of Rapha® equipment. Method: The approach is composed of strategies that initially carried out a survey of public policies encouraging the technological development of medical equipment by the Public University in order to identify the ecosystem with the capacity for social inclusion and benefits for society. In this context, it was necessary to characterize the steps, markers, entities and policies of translational research related to new health technologies in Brazil for medical products and the ethical and regulatory aspects based on the single case study of the Rapha® equipment, in addition to their degree of technological maturity. Results: The transformation of research carried out within universities into products that can be assimilated in health care generated patents, technological transfers that are linked to the innovation process. Thus, the TMS configures as a non-linear research process as determined by the analysis of the case study of the Rapha® equipment. Among the difficulties encountered were the regulatory and production process for the transition from phase T3 to T4 in order to make the technology available to the Brazilian market. In this way, the time steps T0, T1, T2, T3 were identified as results of the translation of the Rapha® equipment over time. Conclusion: The TMS presents the scientific development carried out in order to enable access to health by the population through the research, development and innovation environment of the Public University of Brazil and the ethical and regulatory environment associated with the development of new medical products for the system of Brazilian health.
|
|
6
|
-
SUELLEN PAULA DE OLIVEIRA SILVA
-
A New Unit Protection Scheme Applied to Transmission Lines
-
Orientador : KLEBER MELO E SILVA
-
MEMBROS DA BANCA :
-
ANESIO DE LELES FERREIRA FILHO
-
FELIPE VIGOLVINO LOPES
-
FERNANDA CASENO TRINDADE ARIOLI
-
FRANCIS ARODY MORENO VASQUEZ
-
KLEBER MELO E SILVA
-
Data: 06/12/2024
-
-
Mostrar Resumo
-
O presente projeto de tese propõe um novo algoritmo de proteção unitária para linhas de transmissão imune a resistência de falta. Ele é fundamentado em um plano complexo, cuja característica de restrição é definida como uma circunferência de raio unitário e centro na origem. Para tanto, o algoritmo calcula para cada tipo de falta o coeficiente HL para o terminal local e HR para o terminal remoto da linha de transmissão, que são plotado no plano de restrição proposto, possibilitando a identificação do curto-circuito caso algum deles esteja fora da zona de restrição. Para validar o seu desempenho, empregou-se o software Alternative Transients Program para simular a operação da linha de transmissão quando submetida às diversas condições de operação. As simulações realizadas foram divididas em análises transitórias – nas quais avalia-se o comportamento da proteção durante situações de curto-circuito – e análises de sensibilidade paramétrica, nas quais investiga-se a influência de cada um dos parâmetros envolvidos no curto-circuito durante o regime permanente de falta. Os resultados obtidos revelam que o algoritmo proposto provê uma alternativa apropriada, eficiente e segura para proteção de linhas de transmissão
-
Mostrar Abstract
-
This thesis project proposes a new unitary protection algorithm for transmission lines that are immune to fault resistance. It is based on a complex plane, whose constraint characteristic is defined as a circumference of unit radius and center at the origin. For this purpose, the algorithm calculates for each type of fault the coefficient HL for the local terminal and HR for the remote terminal of the transmission line, which are plotted on the proposed restriction plan, enabling the identification of the short circuit in case any of them are outside the restriction zone. To validate its performance, the software emph Alternative Transients Program was used to simulate the operation of the transmission line when subjected to different operating conditions. The simulations performed were divided into transient analyzes - in which protection behavior is evaluated during short-circuit situations - and parametric sensitivity analyzes, in which the influence of each of the parameters involved in the short circuit is investigated. during the permanent absence regime. The results obtained reveal that the proposed algorithm provides an appropriate, efficient and safe alternative for the protection of transmission lines
|
|
7
|
-
Alisson Lima Silva
-
Métodos Numéricos Baseados em Homotopia para a Solução do Problema de Fluxo de Carga em Modelos de Sistemas de Potência de Grande Escala e Mal Condicionados.
-
Orientador : FRANCISCO DAMASCENO FREITAS
-
MEMBROS DA BANCA :
-
KLEBER MELO E SILVA
-
FERNANDO CARDOSO MELO
-
FRANCIS ARODY MORENO VASQUEZ
-
FERNANDO AUGUSTO MOREIRA
-
JOÃO ALBERTO PASSOS FILHO
-
Data: 16/12/2024
-
-
Mostrar Resumo
-
Nesta proposta de tese de doutorado, apresenta-se um estudo sobre solucionadores de fluxo de carga para sistemas mal condicionados. A ideia proposta é baseada em uma técnica hibrida facilitada por conceitos de homotopia para solucionar o Problema do Fluxo de Carga (PFC) em sistemas mal condicionados, ou seja, onde o método de Newton-Raphson (NR) padrão não converge partindo de uma estimativa flat start. O método usa conceitos de homotopia dinâmica para iniciar as iterações por meio de um esquema de integração para obter inicialmente uma estimativa de tensão de baixa precisão. Então, com essa estimativa inicial mais próxima da solução, o método de NR refina o resultado para obter uma aproximação de alta precisão com menor que erro de 1 × 10−8. O método foi testado para sistemas teste de grandes dimensões, incluindo os sistemas com 70.000 e 109.272 barras, obtendo soluções de alta precisão.
Posteriormente a esse trabalho, pretende-se dar continuidade nos solucionadores basedo em homopia aplicados a sistemas com mais de uma barra de referência e considerando os limites dos equipamentos, para, então, apresentar a tese em dezembro.
-
Mostrar Abstract
-
This doctoral thesis proposal presents a study on load flow solvers for poorly conditioned systems. The proposed idea is based on a hybrid technique facilitated by homotopy concepts to solve the Load Flow Problem (PFP) in ill-conditioned systems, where the standard Newton-Raphson (NR) method does not converge starting from a flat start estimate. The method uses transient-based dynamic homotopy concepts to initiate iterations through an integration scheme to obtain a low-precision voltage estimate. Then, with this initial estimate closest to the solution, the NR method refines the result to obtain a high-precision approximation with an error of 1 × 10−8. The method was tested for large-scale test systems, including 70,000 and 109k buses, and a high-precision solution was obtained. After this work, we intend to continue with homotopy-based solvers applied to systems with more than one slack bus while considering equipment limits and then present the thesis in December.
|
|
8
|
-
Nilo Sérgio Soares Ribeiro
-
A New Algorithm to Speed Up Transmission Lines Differential Protection
-
Orientador : KLEBER MELO E SILVA
-
MEMBROS DA BANCA :
-
ALBERTO RESENDE DE CONTI
-
ANESIO DE LELES FERREIRA FILHO
-
DENIS VINICIUS COURY
-
FRANCIS ARODY MORENO VASQUEZ
-
KLEBER MELO E SILVA
-
Data: 19/12/2024
-
-
Mostrar Resumo
-
Este trabalho apresenta uma estratégia para acelerar a atuação da proteção diferencial de linhas de transmissão. A estratégia proposta envolve o uso de correntes terminais instantâneas e tensões terminais memorizadas para calcular as potências de operação e restrição para cada terminal da linha de transmissão. O desempenho do esquema proposto foi avaliado por meio de simulações computacionais utilizando o EMTP-ATP, conduzidas em um sistema de teste de transmissão simplificado, composto por uma linha de transmissão de 500 kV. Foram examinados vários cenários, incorporando diferentes tipos de faltas aplicadas, resistências de falha variáveis, ângulo de incidência de falta, força da fonte e pontos de aplicação de falta ao longo do comprimento da linha de transmissão. Os resultados das simulações demonstram o excelente desempenho do esquema proposto na detecção e resposta a faltas de alta e baixa impedância. Além disso, o método exibe alta sensibilidade na identificação de faltas internas, mantendo a seletividade na detecção de defeitos externos. Essa abordagem pode tornar a atuação da proteção mais rápido e eficiente, garantindo uma operação confiável e uma melhor proteção das linhas de transmissão.
-
Mostrar Abstract
-
This work presents a strategy to enhance the speed of differential transmission lines protection trip. The proposed strategy involves using instantaneous terminal currents and memorized terminal voltages to compute operating and restraint power quantities for each transmission line terminal. The performance of the proposed scheme was assessed through computer simulations using EMTP-ATP, conducted on a simplified test transmission system, which comprised a 500 kV transmission line. Multiple scenarios were examined, incorporating different types of applied faults, varying fault resistances, the fault inception angle, Source Impedance Ratio (SIR), and fault application points along the transmission line. The results of the simulations demonstrate the proposed scheme’s excellent performance in detecting and responding to high and low-impedance faults. Additionally, the method exhibits high sensitivity in identifying internal faults while maintaining selectivity in detecting external faults. This approach can make the protection trip faster and more efficient, ensuring reliable operation and better safeguarding of the transmission lines.
|
|
9
|
-
Laice Neves de Oliveira
-
Investigation of Perturbation Approaches in the Solution of Ill-conditioned Large-scale Power Flow Problems
-
Orientador : FRANCISCO DAMASCENO FREITAS
-
MEMBROS DA BANCA :
-
FERNANDO CARDOSO MELO
-
FRANCIS ARODY MORENO VASQUEZ
-
KLEBER MELO E SILVA
-
ROBSON CELSO PIRES
-
RODRIGO ANDRADE RAMOS
-
Data: 20/12/2024
-
-
Mostrar Resumo
-
Esta proposta de tese de doutorado apresenta abordagens para calcular a solução do Problema de Fluxo de Potência (PFP) envolvendo sistemas mal-condicionados e de grande porte. A estratégia baseia-se em aplicar uma etapa de condicionamento à estimativa inicial usada nos métodos iterativos. Essa etapa consiste em modificar a estimativa inicial do método iterativo através de um processo que envolve a matriz Jacobiana e o mismatch das equações de balanço, ambas calculadas para a estimativa inicial. A matriz Jacobiana é então usada para formar um sistema linear cuja matriz perturbada resulta em um melhor número de condição. A segunda abordagem de perturbação proposta baseia-se na análise modal e demonstra que a causa primária do problema de mau condicionamento está associada ao autovalor de menor magnitude da primeira iteração da matriz Jacobiana. Deste modo, é proposto um procedimento para contornar este problema afastando de zero o autovalor de menor magnitude da matriz Jacobiana. Por fim, a última abordagem proposta baseia-se em um método híbrido para calcular a solução PFP que é composto por duas etapas. A primeira consiste em calcular uma solução parcial da PFP a partir de uma estimativa flat start. Os cálculos são realizados por uma técnica de homotopia. Os estados computados nesta primeira etapa são utilizados na segunda como estimativa para um método iterativo, que determina a solução precisa e final do PFP. As técnicas propostas foram investigadas considerando o método NR clássico, o método Heun-King-Werner (HKW) e algumas variantes. O desempenho das abordagens propostas é avaliado para uma variedade de sistemas-teste, incluindo um sistema de 70.000 barras. Os resultados obtidos demonstraram que os métodos investigados conseguiram melhorar significativamente o processo de convergência das técnicas iterativas usadas para resolver PFPs mal-condicionados e de grande porte, incluindo o método clássico de Newton-Raphson.
-
Mostrar Abstract
-
This PhD thesis proposal presents approaches to calculate the solution to the Power Flow Problem (PFP) involving ill-conditioned and large systems. The strategy is based on applying a conditioning step to the initial estimate used in iterative methods. This step consists of modifying the initial estimate of the iterative method through a process that involves the Jacobian matrix and the mismatch of the balance equations, both calculated for the initial estimate. The Jacobian matrix is then used to form a linear system whose perturbed matrix results in a better condition number. Another perturbation approach proposed in this work based on modal analysis demonstrates that the primary cause of the ill-conditioning problem is associated with the smallest magnitude eigenvalue of the Jacobian matrix’s first iteration. In addition, it is proposed a procedure to circumvent this problem by shifting away from zero the smallest magnitude eigenvalue of the Jacobian matrix. Finally, the last proposed approach is based on a hybrid method to calculate the PFP solution that is composed of two steps. The first consists of calculating a partial solution of the PFP based on an estimate flat start. Calculations are performed using a homotopy technique. The states computed in this first step are used in the second as estimates for an iterative method, which determines the precise and final solution of the PFP. The proposed techniques were investigated considering the classical NR method, the Heun-King-Werner (HKW) method and some variants. The performance of the proposed approaches is evaluated for a variety of test systems, including a 70,000 bus system. The results obtained demonstrated that the investigated methods were able to significantly improve the convergence process of the iterative techniques used to solve large and ill-conditioned PFPs, including the classical Newton-Raphson method. Keywords:
|
|
10
|
-
Eduardo Passos Aquino Ribeiro
-
A Novel Approach for Traveling Wave-Based Fault Location Methods Using Low Sampling Rate Data
-
Orientador : KLEBER MELO E SILVA
-
MEMBROS DA BANCA :
-
ALBERTO RESENDE DE CONTI
-
ANESIO DE LELES FERREIRA FILHO
-
FRANCIS ARODY MORENO VASQUEZ
-
KLEBER MELO E SILVA
-
PAULO MARCIO DA SILVEIRA
-
Data: 20/12/2024
-
-
Mostrar Resumo
-
Esta tese de doutorado apresenta uma solução baseada em interpolação que permite a aplicação do algoritmo de localização de faltas duplas baseado em ondas viajantes (TW), mesmo usando amostragem taxas inferiores às normalmente consideradas como um requisito para abordagens clássicas. Dois Métodos de localização de faltas baseados em fasores (PH) e um baseado em TW são comparados com o proposto técnica e aplicada através de simulações de falhas do Programa de Transientes Alternativos (ATP) em um Linhas de transmissão brasileiras de circuito duplo compensadas em série de 500 kV/60 Hz com alta tensão linhas de corrente contínua (HVDCs) e compensadores estáticos de var (SVCs) nas proximidades. Os resultados mostram que a técnica baseada em interpolação proposta é confiável e adequada para aplicações baseadas em TW localização de faltas usando registros de dados com taxas de amostragem inferiores às usadas comercialmente equipamentos disponíveis. Além disso, sua precisão é comparável à clássica localização de faltas baseada em TW. soluções, revelando sua utilidade para aplicação prática quando apenas falhas digitais tradicionais gravadores (DFRs) estão disponíveis.
-
Mostrar Abstract
-
This doctoral thesis presents an interpolation-based solution that allows the application of the traveling wave (TW)-based double-ended fault location algorithm even using sampling rates lower than those typically considered as a requirement for classical approaches. Two phasor (PH)-based and one TW-based fault location methods are compared with the proposed technique and applied through Alternative Transients Program (ATP) fault simulations in a 500 kV/60 Hz Brazilian double circuit series-compensated transmission lines with high-voltage direct current lines (HVDCs) and static var compensators (SVCs) in the vicinity. The results show that the proposed interpolation-based technique is reliable and suitable for TW-based fault location using data records with sampling rates lower than those used in commercially available equipment. Moreover, its accuracy is comparable to classical TW-based fault location solutions, revealing its usefulness for practical application when only traditional digital fault recorders (DFRs) are available.
|
|