Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UnB

2024
Dissertações
1
  • James Duván García Montoya
  • Análise compreensiva do controle preditivo baseado em modelo aplicado em sistemas de assistência a manutenção de faixa

  • Orientador : EVANDRO LEONARDO SILVA TEIXEIRA
  • MEMBROS DA BANCA :
  • EVANDRO LEONARDO SILVA TEIXEIRA
  • RENATO VILELA LOPES
  • BRUNO AUGUSTO ANGÉLICO
  • DIEGO COLON
  • Data: 01/03/2024

  • Mostrar Resumo
  • A integração de novas tecnologias nas rotinas ou atividades diárias é uma realidade inevitável que permite melhorar o desempenho das mesmas, nesse sentido, a integração de novas tecnologias nos veículos atuais demonstra a preocupação dos profissionais da indústria automotiva e do governo com a segurança, o desempenho e o conforto dos usuários, Por esse motivo, o uso de funções avançadas de assistência ao motorista (ADAS) tem ganhado popularidade nos dias atuais. Essas funções permitem aumentar a segurança nos veículos, pois auxiliam a execução de diferentes tarefas que podem ser repetitivas ou de grande dificuldade para o ser humano. Uma dessas atividades é a manutenção da faixa de rodagem (LKAs). Como o nome sugere, essa função foi desenvolvida para evitar a saída não intencional do centro da faixa. Essa função usa sensores como câmera, GPS, LIDAR etc. para capturar a atuação atual do veículo em relação à estrada e tomar uma decisão por meio do sistema de direção, alterando o ângulo das rodas. O LKAS usa diferentes algoritmos para o processamento das informações provenientes dos sensores e também para a tomada de decisões em tempo real. Esses algoritmos de controle devem garantir a segurança e a estabilidade do veículo em diferentes situações de risco, por esse motivo, o controlador preditivo baseado em modelo (MPC) foi escolhido para este trabalho, que tem a capacidade de lidar com restrições para diferentes variáveis do sistema, como deslocamento lateral ou o ângulo máximo permitido do veículo; no entanto, esse controlador enfrenta um grande desafio na implementação, pois exige uma alta carga computacional, Por esse motivo, nesta pesquisa, foram implementadas estratégias de redução de carga computacional para o controlador MPC, a fim de ser implementado em simulação no modelo em loop (MIL) e no hardware em loop (HIL) na plataforma de simulação em tempo real SpeeedGoat, após a realização das respectivas simulações que demonstraram o bom comportamento do controle na função LKAS e sua viabilidade para implementação em tempo real, uma vez que foi feita uma comparação entre o controlador de regulação quadrática linear (LQR) . Foram propostas duas formulações para os modelos de veículos implementados na função LKAS, sendo que, para o rastreamento de uma referência já estabelecida e, por outro lado, o uso do estado atual do veículo em relação à pista, esses modelos demonstraram estar fortemente relacionados à sensibilidade e às oscilações na resposta do controlador, Além disso, as formulações do controlador MPC em combinação com os diferentes solucionadores de QP mostram que a estratégia de parametrização exponencial permite uma redução significativa do tempo de computação do controlador MPC.


  • Mostrar Abstract
  • The integration of new technologies into daily routines or activities is an inevitable reality that allows them to improve their performance. In this sense, integrating new technologies into current vehicles demonstrates the concern of professionals in the automotive industry and the government with safety, performance and user comfort. For this reason, advanced driver assistance functions (ADAS) have gained popularity today. These functions make it possible to increase safety in vehicles, as they help to carry out different tasks that can be repetitive or difficult for humans. One of these activities is lane maintenance (LKAs). As the name suggests, this function was developed to prevent unintentional departure from the center of the lane. This function uses sensors such as a camera, GPS, LIDAR, etc. to capture the vehicle's current performance on the road and make a decision through the steering system, changing the angle of the wheels. LKAS uses different algorithms to process information from sensors and also to make decisions in real-time. These control algorithms must guarantee the safety and stability of the vehicle in different risk situations, for this reason, the model-based predictive controller (MPC) was chosen for this work, which can deal with restrictions for different vehicle variables. system, such as lateral displacement or the maximum allowable angle of the vehicle; However, this controller faces a major challenge in implementation, as it requires a high computational load. For this reason, in this research, computational load reduction strategies were implemented for the MPC controller, to be implemented in simulation in the loop model. (MIL) and in hardware in the loop (HIL) on the SpeedGoat real-time simulation platform, after carrying out the respective simulations that demonstrated the good behaviour of the control in the LKAS function and its viability for real-time implementation, once it was a comparison between linear quadratic regulation (LQR) controller. Two formulations were proposed for the vehicle models implemented in the LKAS function, and, for tracking an already established reference and, on the other hand, the use of the current state of the vehicle to the track, these models demonstrated to be strongly related to the sensitivity and oscillations in the controller response. Furthermore, the MPC controller formulations in combination with the different QP solvers show that the exponential parameterization strategy allows a significant reduction of the MPC controller's computation time.

2
  • Ciro Barbosa Costa
  • Projeto de Amplificador de Baixo Ruído UWB Integrado em Tag Passiva UHF com Coleta de Energia para Sensoriamento e Monitoramento de Sinais Vitais

  • Orientador : DANIEL MAURICIO MUNOZ ARBOLEDA
  • MEMBROS DA BANCA :
  • ANDRE AUGUSTO MARIANO
  • CARLOS HUMBERTO LLANOS QUINTERO
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • SANDRO AUGUSTO PAVLIK HADDAD
  • Data: 11/03/2024

  • Mostrar Resumo
  • Neste projeto, apresenta-se o design de um amplificador de baixo ruído em tecnologia metal-óxido-semicondutor complementar (do Inglês: CMOS) 180nm, que é integrado em uma tag passiva UHF (Ultra High Frequency)/UWB (Ultra Wideband) com finalidade de monitoramento dos fluxo sanguíneos cardíaco e pulmonar, de um paciente em sua residência. Considerando o quanto os circuitos integrados evoluiram nos últimos anos, cobrindo vastas aplicações nos setores da eletrônica analógica e digital, afirma-se que o padrão UWB é uma boa escolha para aplicações biomédicas não invasivas, e as mais diversas aplicações em IoT, no geral. A tag realiza medições, transmissão e recepção de dados vitais, permitindo qualquer tipo de controle e geração de alarmes. O circuito é energizado através da coleta de energia (do Inglês: energy harvesting) pela banda UHF. Adicionalmente, é integrado uma unidade de gerenciamento de potência, de forma a controlar o uso da bateria quando o recebimento dos dados está ativo, que também é energizado pela coleta de energia. A função principal do amplificador de baixo ruído (LNA), presente no receptor UWB, é aumentar a amplitude do sinal causando o mínimo de distorções ao mesmo e controlar a figura de ruído de todo o receptor. Dessa forma o projeto do LNA foi avaliado através de suas perdas por reflexão na entrada e na saída, ganho, figura de ruído, estabilidade e área consumida. Simulações de corners foram efetuadas com respeito a variações extremas na temperatura e na tensão de alimentação, além de simulações pós-layout após a extração de parasitas.


  • Mostrar Abstract
  • In this project, we present the design of a low-noise amplifier in complementary metaloxide-semiconductor (CMOS) 180nm technology. This amplifier is integrated into a passive Ultra High Frequency (UHF)/Ultra Wideband (UWB) tag with the purpose of monitoring cardiac and pulmonary blood flow in a patient’s residence. Considering the significant advancements in integrated circuits over recent years, spanning a wide range of applications in analog and digital electronics, it is asserted that the UWB standard is a suitable choice for non-invasive biomedical applications and various applications in the Internet of Things (IoT) in general. The tag performs measurements, data transmission, and reception of vital information, enabling various forms of control and alarm generation. The circuit is powered through energy harvesting from the UHF band. Additionally, a power management unit is integrated to control battery usage when data reception is active, also powered by energy harvesting. The primary function of the low-noise amplifier (LNA) in the UWB receiver is to increase the signal amplitude with minimal distortion and control the noise figure of the entire receiver. Thus, the LNA project was evaluated based on reflection losses at the input and output, gain, noise figure, stability, and consumed area. Corner simulations were conducted considering extreme variations in temperature and supply voltage, along with post-layout simulations after parasitic extraction.

3
  • Arthur da Costa Aguiar
  • Modelo Computacional 3D Para Simulação do Fluxo Sanguíneo Durante a Ablação Cardíaca Por Radiofrequência: Explorando o Comportamento Caótico Cardíaco com Hidrodinâmica Translacional

  • Orientador : SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • MEMBROS DA BANCA :
  • SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • ADSON FERREIRA DA ROCHA
  • ALLISSON LOPES DE OLIVEIRA
  • FÁTIMA MRUÉ
  • Data: 12/03/2024

  • Mostrar Resumo
  • A ablação cardíaca, um procedimento invasivo para tratar arritmias cardíacas, pode apresentar complicações, como lesões de estruturas vizinhas, arritmias induzidas e o risco de desenvolvimento de fístulas cardíacas. No pós-operatório, os pacientes podem enfrentar dor no peito, fadiga, possíveis recorrências de arritmias e complicações relacionadas aos medicamentos. Sabendo disso está dissertação tem como objetivo desenvolver um modelo computacional 3D para simular o fluxo sanguíneo durante a Ablação Cardíaca por Radiofrequência (ACRF) e investigar o comportamento caótico cardíaco por meio da análise hidrodinâmica translacional. O modelo proposto permitirá explorar e compreender melhor as interações entre o eletrodo, os tecidos cardíacos, conjuntivos e esofágicos durante o procedimento de ACRF, fornecendo insights valiosos para aprimorar a eficácia e segurança do tratamento. Especificamente, a tese envolverá a utilização do software COMSOL para simular a dinâmica do fluxo sanguíneo, aplicando hidrodinâmica e teoria do caos. A geometria e malha serão definidas, e as propriedades físicas relevantes serão determinadas. Condições de contorno e iniciais adequadas serão estabelecidas. O processo de ablação por radiofrequência será modelado, levando em consideração as interações entre o eletrodo e os tecidos cardíacos, conjuntivos e esofágicos. Além disso, a teoria do caos será integrada ao modelo para analisar os padrões complexos e o comportamento dinâmico do fluxo sanguíneo durante a ACRF. Além disso, será realizada uma análise bibliométrica utilizando o VOSviewer para identificar a falta de correlação entre temas relevantes, como fibrilação atrial, teoria do caos, simulação computacional, pesquisa translacional, mecânica dos fluidos, hemodinâmica e ablação por radiofrequência na literatura científica. O VOSviewer será utilizado para mapear a rede de coautoria e visualizar as interconexões entre os diferentes temas, enfatizando a falta de conexões entre áreas como simulação computacional, teoria do caos e ablação por radiofrequência. Será realizada uma análise de coocorrência de palavras-chave utilizando o VOSviewer para identificar lacunas e tendências na pesquisa relacionada aos temas mencionados, destacando a escassez de estudos que abordem a interseção entre simulação computacional, pesquisa translacional, teoria do caos, mecânica dos fluidos, hemodinâmica e ablação por radiofrequência. Além disso, serão identificados os principais periódicos e conferências que publicam artigos sobre esses temas por meio da análise dos dados do VOSviewer, com o objetivo de compreender a distribuição da produção científica nessas áreas e identificar oportunidades de colaboração e intercâmbio de conhecimento. A análise bibliométrica feita no VOSviewer com suporte do software Excel revelou uma variedade de combinações de palavras-chave, algumas com uma quantidade significativa de artigos associados, enquanto outras mostraram uma contagem limitada de interconexões, sugerindo áreas-chave não exploradas. Essa lacuna no conhecimento ressalta a necessidade de investigações adicionais na área de ablação cardíaca por radiofrequência e modelagem computacional de sistemas não lineares. A simulação do comportamento da temperatura durante a ablação cardíaca por radiofrequência forneceu uma visão sobre a distribuição de pesquisa e considerações fundamentais para o sucesso do procedimento, destacando a importância do monitoramento da temperatura e da visualização do fluxo sanguíneo. Em suma, os resultados destacam a necessidade contínua de investigações interdisciplinares e estratégias que podem avançar na compreensão e prática da ablação cardíaca por radiofrequência, oferecendo oportunidades para melhorar os resultados clínicos e o cuidado com os pacientes, inclusive explorando o potencial das ferramentas de simulação para substituir os testes em animais vivos. Minhas impressões sobre os estudos futuros foram moldadas pela análises de dados que surgiram juntamente das limitações embruscadas durante a pesquisa. Ao examinar os resultados obtidos na investigação bibliométrica e na simulação computacional, ficou claro que existem áreas específicas que carecem de maior atenção e desenvolvimento. A complexidade da hidrodinâmica, a natureza não linear dos sistemas cardíacos e as lacunas na literatura científica destacaram a importância de futuros estudos para preencher essas lacunas e avançar no campo da ablação cardíaca por radiofrequência. Além disso, a necessidade de técnicas de monitoramento mais avançadas e estudos clínicos prospectivos surgiu como pontos cruciais para melhorar a eficácia e segurança do tratamento. Essas percepções destacaram a abstinência interdisciplinar, para impulsionar o progresso na área, visando não apenas avanços científicos, mas também melhores resultados clínicos e qualidade de vida para os pacientes.


  • Mostrar Abstract
  • Cardiac ablation, an invasive procedure to treat cardiac arrhythmias, may present complications such as neighboring structure injuries, induced arrhythmias, and the risk of developing cardiac fistulas. Postoperatively, patients may experience chest pain, fatigue, possible arrhythmia recurrences, and medication-related complications. Knowing this, this dissertation aims to develop a 3D computational model to simulate blood flow during Radiofrequency Cardiac Ablation (RFCA) and investigate chaotic cardiac behavior through translational hydrodynamic analysis. The proposed model will allow for a better understanding of interactions between the electrode, cardiac, connective, and esophageal tissues during RFCA, providing valuable insights to enhance treatment efficacy and safety. Specifically, the thesis will involve using COMSOL software to simulate blood flow dynamics, applying hydrodynamics and chaos theory. Geometry and mesh will be defined, and relevant physical properties determined. Adequate boundary and initial conditions will be established. The RFCA process will be modeled, considering interactions between the electrode and cardiac, connective, and esophageal tissues. Additionally, chaos theory will be integrated into the model to analyze complex patterns and dynamic blood flow behavior during RFCA. Furthermore, a bibliometric analysis using VOSviewer will be conducted to identify the lack of correlation between relevant themes such as atrial fibrillation, chaos theory, computational simulation, translational research, fluid mechanics, hemodynamics, and RFCA in scientific literature. VOSviewer will be used to map the co-authorship network and visualize interconnections between different themes, emphasizing the lack of connections between areas like computational simulation, chaos theory, and RFCA. Co-occurrence analysis of keywords using VOSviewer will identify gaps and trends in research related to the mentioned themes, highlighting the scarcity of studies addressing the intersection between computational simulation, translational research, chaos theory, fluid mechanics, hemodynamics, and RFCA. Additionally, major journals and conferences publishing articles on these themes will be identified through VOSviewer data analysis, aiming to understand the distribution of scientific production in these areas and identify opportunities for collaboration and knowledge exchange. The bibliometric analysis conducted in VOSviewer supported by Excel software revealed a variety of keyword combinations, some with a significant number of associated articles, while others showed a limited count of interconnections, suggesting unexplored key areas. This knowledge gap underscores the need for further investigations in the field of RFCA and computational modeling of nonlinear systems. Simulation of temperature behavior during RFCA provided insights into research distribution and fundamental considerations for procedure success, highlighting the importance of temperature monitoring and blood flow visualization. In summary, the results underscore the ongoing need for interdisciplinary investigations and strategies that can advance the understanding and practice of RFCA, offering opportunities to improve clinical outcomes and patient care, including exploring the potential of simulation tools to replace live animal testing. My impressions on future studies were shaped by data analyses that emerged alongside unforeseen limitations during the research. Examining the results obtained in bibliometric research and computational simulation, it became clear that specific areas lack attention and development. The complexity of hydrodynamics, the nonlinear nature of cardiac systems, and gaps in scientific literature highlighted the importance of future studies to fill these gaps and advance the field of RFCA. Additionally, the need for more advanced monitoring techniques and prospective clinical studies emerged as crucial points to improve treatment efficacy and safety. These insights highlighted interdisciplinary abstinence to drive progress in the area, aiming not only for scientific advances but also for better clinical outcomes and quality of life for patients.

4
  • Bruno Pinheiro de Melo Lima
  • Detecção e contagem automáticas de Euschistus heros (Percevejo marrom) em lavouras de soja usando imagens e aprendizagem profunda

  • Orientador : DIBIO LEANDRO BORGES
  • MEMBROS DA BANCA :
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • DIBIO LEANDRO BORGES
  • HELIO PEDRINI
  • JOSE MAURICIO SANTOS TORRES DA MOTTA
  • Data: 15/03/2024

  • Mostrar Resumo
  • No Brasil, a produção de soja aumentou consideravelmente nas últimas décadas, impulsi-
    onada por tecnologias agrícolas avançadas. No entanto, o uso excessivo de pesticidas, que
    representa uma parte significativa dos custos, apresenta desafios econômicos e ambientais.
    Métodos de detecção e contagem de pragas usando Visão Computacional mostram-se pro-
    missores, uma vez que as abordagens tradicionais são trabalhosas e demoradas. Este estudo
    apresenta um método projetado para identificar e contar insetos em tempo real em campos
    de soja, construído sobre um modelo YOLOv8 aprimorado, especificamente desenvolvido
    para essa missão. Para aprimorar a precisão na detecção de pequenos insetos e reduzir a
    complexidade do modelo YOLOv8, conduzimos experimentos de ablação para avaliar o im-
    pacto da integração de um nível de recursos mais profundo e uma camada C2f2 proposta no
    modelo de detecção de insetos. Por meio desses experimentos, o novo algoritmo foi treinado
    e testado usando um conjunto de dados de pesquisa público, composto por amostras de
    Euschistus Heros (PMN), um percevejo de interesse em lavouras de soja no Brasil, e seu
    desempenho foi comparado com três configurações em condições idênticas: A) YOLOv8n,
    B) YOLOv8n com apenas C2f2 e C) YOLOv8n com apenas P2. Nossa avaliação empregou
    diversas métricas, incluindo Precisão, mAP0.5 e mAP0.95. Também consideramos a com-
    plexidade do modelo como fatores essenciais na avaliação da eficiência dos modelos YOLO
    para aplicações específicas, comparando Parâmetros, FLOPs, Inferência e Tempo. O modelo
    proposto foi então integrado a um framework capaz de rastrear e contar os PMNs em questão
    em um stream de vídeo. Este stream foi criado, animando 42 novas imagens, capturadas sob
    diversas condições de iluminação e fundo para abordar potenciais desafios em aplicações
    práticas, testando a capacidade de generalização do modelo, bem como o desempenho do
    modelo em aplicações de vídeo. O modelo demonstra uma medida de acurácia, representada
    pela métrica de MOTA, satisfatória, com cerca de 62%. Isso indica que a técnica proposta é
    eficaz em rastrear bem os percevejos ao longo das cenas apresentadas, o que é corroborado
    pela alta taxa de acerto na contagem final dos PMNs de (desvio para cima de 5,3%). Esses
    resultados apontam para um potencial desse tipo de framework e sinaliza potencial em
    aplicações futuras de mapeamento de pragas a partir de rastreamentos em tempo real.


  • Mostrar Abstract
  • In Brazil, soybean production has increased considerably in recent decades, driven by ad-
    vanced agricultural technologies. However, the excessive use of pesticides, which represents
    an important portion of the costs, presents economic and environmental challenges. Pest
    detection and counting methods using Computer Vision appear promising, since traditional
    approaches are laborious and time-consuming. This study introduces a method tailored for
    real-time detecting and counting insects in soybean fields, built upon an improved YOLOv8
    model, designed for this mission. To enhance the accuracy in detecting small insects and
    reduce the complexity of YOLOv8, we conducted ablation experiments to assess the impact
    of integrating a deeper feature level and a proposed C2f2 layer into the insect detection model.
    Through these ablation experiments, new algorithm underwent training and testing using a
    public research dataset, composed of samples of Euschistus Heros (NBSB), a bug of interest
    in soybean crops in Brazil, and its performance was compared against three configurations
    under identical conditions: A) YOLOv8n, B) YOLOv8n with C2f2 only and C) YOLOv8n
    with P2 only. Our evaluation employed various metrics, including Precision, mAP0.5 and
    mAP0.95. We also considered model complexity as essential factors in assessing the effi-
    ciency of YOLO models for specific applications, by comparing Params, FLOPs, Inference,
    and Time. The proposed model was then integrated into a framework capable of track and
    count NBSBs from a video stream. This video stream was created, animating 42 new images,
    captured under diverse lighting and background conditions to address potential challenges
    in practical applications, testing the generalization capacity of the model as well as the
    model’s performance in video applications. The model demonstrates a satisfactory measure
    of accuracy, represented by the MOTA metric, with around 62%. This indicates that the
    proposed technique is effective in tracking bedbugs well throughout the scenes presented,
    which is corroborated by the high hit rate in the final insect count (upward deviation of
    5.3%). These results point to the potential of this type of framework and signal potential in
    future pest mapping applications based on real-time tracking.

5
  • Gabriel da Silva Lima
  • Método Semi-analítico para Determinação de Estratégia Ótima para Injeção WAG Miscível

  • Orientador : EUGENIO LIBORIO FEITOSA FORTALEZA
  • MEMBROS DA BANCA :
  • EUGENIO LIBORIO FEITOSA FORTALEZA
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • JONES YUDI MORI ALVES DA SILVA
  • ANDRÉ BENINE NETO
  • Data: 20/03/2024

  • Mostrar Resumo
  • A injeção alternada de água e gás (WAG) é uma técnica estabelecida de Recuperação Avan-
    çada de Petróleo (EOR) que envolve a alternância de injeções de água e gás para aumentar a
    eficiência de varredura e maximizar a recuperação de hidrocarbonetos. Recentemente, a
    WAG tem sido reconhecida por sua eficácia na reinjeção de gás em reservatórios offshore,
    especialmente aqueles com alto teor de CO2, como os reservatórios de pré-sal do Brasil.
    O desempenho da WAG é influenciado por propriedades do reservatório e parâmetros de
    injeção, sendo a proporção WAG uma variável crítica. Proporções WAG mal projetadas
    podem resultar em recuperação sub ótima de petróleo, tornando sua otimização essencial
    para uma recuperação bem-sucedida. Vários estudos têm empregado técnicas como redes
    neurais artificiais e algoritmos bio-inspirados para determinar a proporção WAG ideal, mas
    os altos custos computacionais associados a esses métodos limitam sua aplicação prática em
    modelos reais. Nesse contexto, é necessária uma metodologia analítica ou semi-analítica de
    baixo custo computacional para encontrar a proporção WAG para a injeção WAG miscível.
    Esse estudo apresenta uma metodologia semi-analítica para determinar a proporção WAG
    com base na razão de solubilidade do gás no óleo (Rs). O Rs é usado para determinar a
    quantidade ideal de água e gás miscível a serem injetados visando reduzir a viscosidade do
    óleo e aumentar a eficiência de varrido, tudo isso enquanto evita a formação de fase contínua
    de gás em condições de reservatório. O principal objetivo é a otimização da produção total
    de óleo. Uma análise comparativa foi feita para avaliar a efetividade do método proposto em
    relação aos convencionais como injeção de água e de gás, além das diferentes proporções
    WAG encontradas na literatura, como: 1:1, 1:2, 2:1, 4:1 e 1:4. As simulações foram feitas
    usando os reservatórios Olympus e Egg Model, aplicando dois fluidos modificados para
    simular as condições do pré-sal brasileiro.
    Os resultados mostram que o método Rs requer apenas duas simulações para determinar a
    proporção WAG, que foi 2,6:1 para o fluido ’A’ e 3,2:1 para o fluido ’B’, e alcançou a meta
    de reduzir a viscosidade e aumentar a produção de óleo, mesmo no pior caso, em 30% em
    comparação com a injeção contínua de água. Embora o método não tenha resultado na
    produção ótima em todos os casos, seus resultados mostram potencial para competir com as
    proporções WAG tradicionais e atuar como um guia prático para o aumento na recuperação
    de óleo sem a necessidade de algorítimos com alto custo computacional.


  • Mostrar Abstract
  • Water-alternating-gas (WAG) injection is an established Enhanced Oil Recovery (EOR) technique involving alternating water and gas injections to enhance sweep efficiency and maximize hydrocarbon recovery. Recently, WAG has been recognized for its effectiveness in
    reinjecting gas into offshore reservoirs, especially those with high 𝐶𝑂2 content like Brazil’s
    pre-salt reservoirs.
    WAG performance is influenced by reservoir properties and injection parameters, with the WAG ratio being a critical variable. Poorly designed WAG ratios can result in suboptimal
    oil recovery, making its optimization essential for successful oil recovery. Various studies
    have employed techniques such as artificial neural networks and bio-inspired algorithms to
    determine the optimal WAG ratio, but the high computational costs associated with these
    methods limit their practical application in real models. In this context, an analytical or
    semi-analytical methodology of low computational cost is required to find the WAG ratio for
    miscible WAG injection.
    This study presents a semi-analytical method to determine the WAG Ratio based on the
    reservoir’s solution gas-oil ratio (Rs). The Rs is used to determine the ideal injection quantities
    of water and miscible gas, aiming to reduce oil viscosity and enhance sweep efficiency, all
    while avoiding the formation of continuous gas phases under reservoir conditions. The
    primary methodology goal is to optimize total oil production. A comparative analysis is
    performed to assess the effectiveness of the proposed method concerning conventional
    injections like Waterflooding and Gas flooding, as well as different WAG Ratios found in the
    literature, such as 1:1, 1:2, 2:1, 4:1, and 1:4. The reservoir simulation is carried out utilizing
    the Olympus and EGG models, employing two modified fluids to simulate conditions of the
    Brazilian pre-salt.
    The results showed that the Rs method required only two simulations to determine the
    WAG Ratio, which was 2.6:1 for fluid ’A’ and 3.2:1 for fluid ’B’, and managed to reduce oil
    viscosity and improve oil production, in the worst case, by 30% compared to Waterflooding.
    Although the method did not yield the exact optimal oil production across all scenarios, its outcome demonstrates its potential to compete with the common WAG Ratios found in the
    literature and also to serve as a practical guide for improving oil recovery without relying on
    algorithms with high computational costs.

6
  • Conceição Jane Guedes de Lira
  • ESTUDO DA CONFIABILIDADE PARA CARACTERIZAÇÃO DE ESTRATÉGIAS DE MANUTENÇÃO DE EQUIPAMENTOS DE CLIMATIZAÇÃO INDUSTRIAL NO RAMO ALIMENTÍCIO

  • Orientador : ANTONIO PIRATELLI FILHO
  • MEMBROS DA BANCA :
  • ANTONIO PIRATELLI FILHO
  • CARLOS HUMBERTO LLANOS QUINTERO
  • SANDERSON CESAR MACEDO BARBALHO
  • SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • Data: 29/04/2024

  • Mostrar Resumo
  • Em um ambiente global competitivo, a manutenção desempenha um papel fundamental para a disponibilidade de equipamentos na indústria alimentícia. Este estudo busca equilibrar estratégias de manutenção para otimizar o tempo de atividade dos equipamentos, desenvolvendo um plano preventivo baseado em análises quantitativas, incluindo MTBF (MeanTime Between Failures - Tempo Médio Entre Falhas) e o MTTR (Mean Time To Repair - Tempo Médio até Reparo) e disponibilidade dos equipamentos e do sistema. Na abordagem metodológica adotada neste estudo, 11 modelos de climatizadores industriais foram analisados com base em critérios de desempenho e eficiência. Os dados históricos desses equipamentos foram usados para calcular o MTTR, MTBF e a disponibilidade. Um plano de manutenção preventiva foi elaborado com base nesses resultados. A abordagem seguiu a modelagem estatística usando o software Minitab® versão 16 e as fases do modelo de referência de análise de dados. O teste de Anderson-Darling foi utilizado para avaliar a aderência dos dados a diferentes distribuições probabilísticas. A amostra consistiu em 399 observações dos dados de tempo de reparo e tempo entre falhas. Foram detalhadas as distribuições de probabilidade, como Exponencial, Gama, LogNormal e Weibull, e a abordagem para avaliar a estratégia de manutenção preventiva. Neste estudo, exploramos a importância da manutenção preventiva na indústria alimentícia, com foco na confiabilidade e disponibilidade dos equipamentos de climatização. Neste estudo, são utilizados dados históricos e modelagem estatística para analisar o tempo médio entre falhas (MTBF), o tempo médio até reparo (MTTR) e a disponibilidade dos equipamentos. Propomos um plano de manutenção preventiva baseado nesses tempos médios e na disponibilidade, visando otimizar a eficiência e eficácia da produção. Diante das análises realizadas, fica evidente que a implementação de estratégias de manutenção preventiva é fundamental para garantir a confiabilidade e disponibilidade dos equipamentos na indústria alimentícia. A modelagem estatística dos dados permitiu avaliar o desempenho dos equipamentos ao longo do tempo, possibilitando a elaboração de um plano de manutenção eficaz. Recomenda-se a continuidade dessas práticas preventivas para mitigar os impactos das falhas nos processos produtivos e garantir a qualidade e integridade dos produtos alimentícios.


  • Mostrar Abstract
  • In a competitive global environment, maintenance plays a fundamental role in the availability of equipment in the food industry. This study seeks to balance maintenance strategies to optimize equipment uptime, developing a preventive plan based on quantitative analyses, including MTBF (MeanTime Between Failures) and MTTR (Mean Time To Repair)  and availability of equipment and system. In the methodological approach adopted in this study, 11 models of industrial air conditioners were analyzed based on performance and efficiency criteria. Historical data from these equipment was used to calculate MTTR, MTBF and availability. A preventive maintenance plan was developed based on these results. The approach followed statistical modeling using Minitab® version 16 software and the phases of the data analysis reference model. The Anderson-Darling test was used to evaluate data adherence to different probabilistic distributions. The sample consisted of 399 observations of repair time and time between failure data. Probability distributions, such as Exponential, Gamma, LogNormal and Weibull, and the approach to evaluating the preventive maintenance strategy were detailed. In this study, we explore the importance of preventive maintenance in the food industry, focusing on the reliability and availability of air conditioning equipment. In this study, historical data and statistical modeling are used to analyze the mean time between failures (MTBF), the mean time to repair (MTTR) and equipment availability. We propose a preventive maintenance plan based on these average times and availability, aiming to optimize production efficiency and effectiveness. Given the analyses carried out, it is clear that the implementation of preventive maintenance strategies is essential to guarantee the reliability and availability of equipment in the food industry. Statistical modeling of the data made it possible to evaluate the performance of the equipment over time, enabling the creation of an effective maintenance plan. It is recommended that these preventive practices continue to mitigate the impacts of failures in production processes and guarantee the quality and integrity of food products.

Teses
1
  • ELENA JAVIDI DA COSTA
  • Aplicações de Processamento de Sinais de Arranjos em Engenharia Biomédica

  • Orientador : JOSE ALFREDO RUIZ VARGAS
  • MEMBROS DA BANCA :
  • EBRAHIM SAMER EL YOUSSEF
  • EDISON PIGNATON DE FREITAS
  • JOSE ALFREDO RUIZ VARGAS
  • JOSE FELICIO DA SILVA
  • RICARDO ZELENOVSKY
  • Data: 22/01/2024

  • Mostrar Resumo
  • O presente projeto de tese procura propor soluções de hardware e software para aplicações em engenharia biomédica, em particular, utilizando técnicas de processamento de sinais de arranjos. Primeiro, é proposto um dispositivo de saúde com vários sensores, do inglês multi-sensor wearable health device (MWHD), incluindo algoritmos de processamento de sinais de alta resolução para medir a freqüência cardíaca e a quantidade de passos. Em seguida, é apresentada uma nova modificação dos Critérios Teóricos de Informação (ITC) tradicionais baseados no autovalores a fim de estimar a quantidade de componentes de medições de Magnetoencefalografia (MEG) e Eletroencefalografia (EEG). Finalmente, é desenvolvida uma estrutura não supervisionada para a identificação do Potencial Evocado Visual (PEV) nas medições de MEG. As técnicas propostas foram validadas através de medições.


  • Mostrar Abstract
  • The present thesis project seeks to propose hardware and software solutions for biomedical engineering applications, in particular, using array signal processing techniques. First a multi-sensor wearable health device (MWHD), including high-resolution signal processing algorithms to measure of the Heart Rate (HR) and the steps, is proposed. Next a novel modi- fication of the traditional eigenvalue based Information Theoretic Criteria (ITC) is presented in order to estimate the amount of components of Magnetoencephalography (MEG) and Electroencephalography (EEG) data. Finally, an unsupervised framework for the identifica- tion of Visual Evoked Potential (VEP) in MEG measurements is developed. The proposed approaches are validated using measurements.

2
  • Rogerio Rodrigues dos Santos
  • Comunicação Segura Baseada em Hipercaos Subatuado: Proposta Utilizando Métodos de Lyapunov

  • Orientador : JOSE ALFREDO RUIZ VARGAS
  • MEMBROS DA BANCA :
  • ELMER ROLANDO LLANOS VILLARREAL
  • GIOVANNI ALMEIDA SANTOS
  • GUILLERMO ALVAREZ BESTARD
  • JOSE ALFREDO RUIZ VARGAS
  • MAX EDUARDO VIZCARRA MELGAR
  • Data: 29/02/2024

  • Mostrar Resumo
  • Esta tese explora conceitos essenciais para justificar uma proposta de pesquisa inovadora em comunicação segura caótica. Inicialmente, foi realizada uma revisão abrangente de artigos e levantamentos relacionados à comunicação segura, com foco em sistemas caóticos, controle atuado, robustez e sistemas hipercaóticos. Isso proporcionou uma compreensão do estado atual da pesquisa em segurança da comunicação. Em seguida, uma análise estatística foi conduzida para avaliar modelos de sistemas de comunicação recentes, considerando simplicidade, robustez, segurança e confiabilidade na codificação e decodificação de mensagens criptografadas, bem como a capacidade de lidar com distúrbios. A metodologia envolveu a coleta de dados de fontes confiáveis como Google Acadêmico e Scopus. Os resultados destacam um crescimento nas publicações, com liderança significativa da China. Além disso, serão analisadas as tendências na comunicação segura hipercaótica. Em seguida, é proposto um sistema inovador de comunicação segura, usando criptografia analógica baseada no caos para transmitir sinais em uma faixa pública. As principais contribuições incluem a introdução de uma lei de controle subatuada na sincronização, demonstração da robustez do sistema frente a perturbações, e exploração da imprevisibilidade em sistemas hipercaóticos para aumentar a segurança na criptografia. Essas contribuições consolidam o sistema proposto como uma abordagem promissora para melhorar a segurança na comunicação em ambientes públicos, fornecendo uma base sólida para pesquisas futuras e aplicações práticas em telecomunicações seguras.


  • Mostrar Abstract
  • This thesis explores essential concepts to justify an innovative research proposal in chaotic secure communication. Initially, a comprehensive review of articles and surveys related to secure communication was conducted, focusing on chaotic systems, actuated control, robustness, and hyperchaotic systems. This provided an understanding of the current state of research in communication security. Next, a statistical analysis was conducted to evaluate recent communication system models, considering simplicity, robustness, security, and reliability in encoding and decoding encrypted messages, as well as the ability to handle disturbances. The methodology involved collecting data from reliable sources such as Google Scholar and Scopus. The results highlight a growth in publications, with significant leadership from China. Additionally, trends in hyperchaotic secure communication will be analyzed. Following this, an innovative secure communication system is proposed, using chaos-based analog cryptography to transmit signals in a public range. The main contributions include the introduction of a subactuated control law in synchronization, demonstrating system robustness against disturbances, and exploring unpredictability in hyperchaotic systems to enhance cryptography security. These contributions consolidate the proposed system as a promising approach to improving security in communication within public environments, providing a solid foundation for future research and practical applications in secure telecommunications.

3
  • Emanuel Pereira Barroso Neto
  • Metodologias de Otimização Construtiva para Reservatórios de Petróleo com Função Custo Modificada

  • Orientador : EUGENIO LIBORIO FEITOSA FORTALEZA
  • MEMBROS DA BANCA :
  • ALEXANDRE ANOZÉ EMERICK
  • MARCELO SOUZA DE CASTRO
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • EUGENIO LIBORIO FEITOSA FORTALEZA
  • MANOEL PORFIRIO CORDAO NETO
  • Data: 08/03/2024

  • Mostrar Resumo
  • Dentre os problemas a serem resolvidos no campo da engenharia de reservatório, destaca-se o desafio de se obter as melhores condições operacionais possíveis para que o retorno econômico da exploração de petróleo e gás seja maximizada. Neste contexto, há na literatura um conjunto significativamente grande de soluções, tanto na parte de ajuste do modelo quanto da otimização da produção; entre os algoritmos utilizados, pode-se citar os métodos de gradiente e até mesmo o emprego de inteligência artificial, utilizando como função custo o Valor Presente Líquido. Contudo, tais soluções consideram um ciclo de vida longo para o reservatório, o que não é desejável do ponto de vista econômico, e também exigem, de maneira geral, um elevado poder computacional.

    Considerando-se as limitações dos algoritmos já consolidados na literatura, a presente pesquisa tem como objetivo estabelecer uma metodologia de otimização da produção para um caso onde a configuração dos poços e as capacidades de processamento dos fluidos produzidos e injetados já foram definidos e que seja construtiva, isto é, obtenha os controles progressivamente com o tempo, e tenha como resultado valores econômicos que sejam competitivos e melhores que os casos sem controle, e também em menor tempo de exploração e baixo custo computacional.

    Para que o objetivo proposto seja alcançado, a função objetivo é modificada para se considerar diretamente os parâmetros intrínsecos do reservatório, e são utilizados métodos simples de busca das soluções. Os algoritmos desenvolvidos com esta metodologia são então utilizados em modelos de reservatório comumente utilizados, tanto no caso de um modelo determinístico quanto em um conjunto de realizações, em que estão presentes parâmetros com incertezas, e os resultados obtidos são comparados com aqueles vindos de casos \textit{benchmarks}: controle constante e controle reativo. Espera-se que os algoritmos de busca do controle ótimo dos poços apresentem resultados econômicos melhores que os dos \textit{benchmarks}, evidenciando a contribuição desta pesquisa na área da otimização da produção.


  • Mostrar Abstract
  • Among the problems to be solved in the field of reservoir engineering, there is the challenge of obtaining the best possible operating conditions so that the economic return from oil and gas exploration is maximized. In this context, there is a significantly large set of solutions in the literature, both in terms of model adjustment and production optimization; among the algorithms used, one can mention the gradient methods and even the use of artificial intelligence, using the Net Present Value as a cost function. However, such solutions consider a long life cycle for the reservoir, which is not desirable from an economic point of view, and also require, in general, a high computational power.

    Considering the limitations of algorithms already consolidated in the literature, this research aims to establish a production optimization methodology for a case where the well settings and the processing capacity of the produced and injected fluids were already defined and is constructive, that is, obtains the controls progressively over time, and results in economic values that are competitive and better than uncontrolled cases, and also in lower exploration time and low computational cost.

    In order to achieve the proposed objective, the objective function is modified to directly consider the intrinsic parameters of the reservoir, and simple methods of finding solutions are used. The algorithms developed with this methodology are then used in commonly used reservoir models, both in the case of a deterministic model and in a set of realizations, in which parameters with uncertainties are present, and the results obtained are compared with those coming from benchmark cases: constant control and reactive control. It is expected that the search algorithms for the optimal control of wells present better economic results than those of the benchmarks, showing the contribution of this research in the area of production optimization.

4
  • Mayla dos Santos Silva
  • Avaliação da Confiabilidade de Bombas de Infusão Hospitalares 

  • Orientador : ANTONIO PIRATELLI FILHO
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • ANTONIO PIRATELLI FILHO
  • ALLISSON LOPES DE OLIVEIRA
  • FÁTIMA MRUÉ
  • GLECIA VIRGOLINO DA SILVA LUZ
  • Data: 15/03/2024

  • Mostrar Resumo
  • Bombas de Infusão (BI) são dispositivos médicos (DM) utilizados para administração de medicamentos ou alimentos de forma contínua e precisa. Ao passar dos anos sua utilização se expandiu, sendo atualmente empregado nas emergências, UTIs, pediatria e vários outros setores hospitalares. Na pandemia de COVID-19 vivenciada recentemente, houve intensificação no uso desse dispositivo em razão da demanda de administração de altas doses de sedativos para pacientes em ventilação. Por se tratar de um equipamento médico invasivo, as manutenções são exigidas com maior atenção e periodicidade, a fim de manter o bom funcionamento e precisão na infusão. Caso as BI falhem, são capazes ocasionar eventos adversos que podem gerar danos ao paciente, prejudicando seu quadro de saúde. Além dos problemas associados ao paciente, a BI é o DM que possui maior número de notificações de eventos adversos no Brasil, o que eleva a necessidade de verificação de condições que o dispositivo está operando, visando minimizar falhas durante o uso.

    Diante deste panorama, o objetivo da presente pesquisa é analisar a confiabilidade de BI operantes em um hospital brasileiro, utilizando o banco de dados interno, construído a partir do software de Engenharia Clínica. Foram modeladas as distribuições de probabilidade para tempo de reparo e tempo entre falhas, calculados aspectos como confiabilidade e disponibilidade de BI hospitalares por meio da análise de falhas, em concordância com as recomendações nacionais/internacionais, e investigados os setores hospitalares com falhas recorrentes e serviços executados. Ademais, propomos realizar uma revisão sistemática de literatura para certificar como estudos sobre a confiabilidade das bombas e outros parâmetros metrológicos vêm sendo estudados nos últimos anos, para finalmente propor um planejamento para verificação das bombas.

    A revisão demonstrou que o método gravimétrico é uma proposta que traz resultados positivos na avaliação do fluxo, sendo uma alternativa para os responsáveis da engenharia clínica. Ficou evidente que há carência de estudos que abordem conceitos de confiabilidade aplicada à BI, destacando os que envolvam ensaios de bancada e in loco. Na avaliação dos equipamentos operantes, observou-se ausência de detalhes em anotações para o motivo da falha e na abertura da ordem de serviço, os quais podem gerar imprecisão no planejamento das manutenções. O maior tempo de reparo foi identificado na Unidade de Terapia Intensiva (Neurológica), setor que compreende a maioria das bombas. As análises gráficas e testes apontaram que a distribuição de Weibull modela satisfatoriamente tanto o tempo entre falhas quanto o tempo de reparo das máquinas, e o modelo A demonstrou melhores resultados quanto à disponibilidade e confiabilidade. Por fim, o estudo propõe um planejamento que une recomendações nacionais com ciclo de confiabilidade para DM visando a verificação das BI, a fim de que possa ser englobado na rotina de manutenções preditivas e preventivas.


  • Mostrar Abstract
  • Infusion Pumps (IP) are medical devices (MD) used to administer medicines or food continuously and precisely. Over the years, its use has expanded, currently being used in emergencies, ICUs, pediatrics and several other hospital sectors. In the recent COVID-19 pandemic, there has been an intensification of the use of this device due to the demand for the administration of high doses of sedatives for ventilated patients. As it is an invasive medical equipment, maintenance is required with greater attention and frequency, in order to maintain good functioning and precision in the infusion. If the IPs fail, they can cause adverse events that can cause harm to the patient, harming their health. In addition to the problems associated with the patient, the IP is the MD that has the highest number of adverse event reports in Brazil, which increases the need to verify the conditions under which the device is operating, aiming to minimize failures during use.

    Given this panorama, the objective of this research is to analyze the reliability of IP operating in a Brazilian hospital, using an internal database, built from Clinical Engineering software. Probability distributions for repair time and time between failures were modeled, aspects such as reliability and availability of hospital IPs were calculated through failure analysis, in accordance with national/international recommendations, and hospital sectors with recurrent failures were investigated. and services performed. Furthermore, we propose to carry out a systematic literature review to certify how studies on the reliability of pumps and other metrological parameters have been studied in recent years, to finally propose a plan for checking the pumps.

    The review demonstrated that the gravimetric method is a proposal that brings positive results in flow assessment, being an alternative for those responsible for clinical engineering. It was evident that there is a lack of studies that address reliability concepts applied to IP, highlighting those involving bench and on-site tests. In the evaluation of the operating equipment, it was observed that there were no details in the notes regarding the reason for the failure and when opening the work order, which could lead to inaccuracy in maintenance planning. The longest repair time was identified in the Intensive Care Unit (Neurological), a sector that comprises the majority of pumps. Graphical analyzes and tests showed that the Weibull distribution satisfactorily models both the time between failures and the time to repair machines, and model A demonstrated better results in terms of availability and reliability. Finally, the study proposes a plan that combines national recommendations with a reliability cycle for DM aimed at verifying BI, so that it can be included in the predictive and preventive maintenance routine.

5
  • Pablo Henrique Ursulino de Pinho
  • Receptores semi-cegos para sistemas MIMO relé de dois saltos com codificações baseadas em multiplos Khatri-Rao e Kronecker.

  • Orientador : JOAO PAULO JAVIDI DA COSTA
  • MEMBROS DA BANCA :
  • JOAO PAULO JAVIDI DA COSTA
  • JOSE ALFREDO RUIZ VARGAS
  • RICARDO ZELENOVSKY
  • TARCISIO FERREIRA MACIEL
  • WALTER DA CRUZ FREITAS JUNIOR
  • Data: 30/04/2024

  • Mostrar Resumo
  • Nos últimos anos, receptores semi-cegos baseados em modelos tensoriais para sistemas de comunicação MIMO têm sido amplamente utilizados, pois permitem uma melhor estimativa dos parâmetros sem o conhecimento prévio do canal. Esta tese apresenta desenvolvimentos realizados no âmbito de novos receptores semi-cegos aplicados a sistemas de comunicação MIMO ponto-a-ponto e cooperativo para realizar estimativas das matrizes de símbolos e canais. Mais especificamente, as contribuições teóricas desta tese estão ligadas à extensão das codificações que introduzem a diversidade espacial às matrizes de símbolos. Essas codificações permitem propor receptores semi-cegos para estimar asmatrizes de símbolos e o canal sem o seu conhecimento prévio. Na primeira parte desta tese, um caso particular da codificação MKRST é considerado para o sistema MIMO ponto-a-ponto. Para a codificação MKRST, uma matriz de símbolos é assumida conhecida, que pode ser considerada como uma matriz de pre-codificação. Para este esquema de codificação, um modelo de tensor do sinal recebido é proposto, e novos receptores semi-cegos são apresentados para estimar conjuntamente as matrizes de símbolos e o canal. Na segunda parte desta tese, uma nova extensão de codificação baseada em múltiplos produtos de Kronecker das matrizes de símbolos é aplicada a um sistema de retransmissão MIMO de doissaltos. Esse sistema considera um único relé e o esquema de codificação é combinado com uma codificação TSTF emambos os nós de transmissão e retransmissão, nomeada como codificação TSTF-MSMKron. Para o sistema proposto, o modelo tensorial é explorado para obter receptores que estimamconjuntamente os canais e as matrizes de símbolos de forma semi-cega. Em cada parte da tese, condições relacionadas à unicidade das decomposições tensoriais e à identificabilidade dos algoritmos propostos são discutidas. Resultados das simulações de Monte Carlo são fornecidos para avaliar o desempenho das codificações e dos receptores semi-cegos propostos.


  • Mostrar Abstract
  • In recent years, semi-blind receivers based on tensor models for MIMO communication systems have been widely used as they allow a better estimation of parameters without prior channel knowledge. This thesis presents developments carried out in the scope of new semiblind receivers applied to point-to-point and cooperative MIMOcommunication systems to perform symbols and channel estimation. More specifically, the theoretical contributions of this thesis are linked to the extension of the codings that introduce spatial diversity to symbol matrices. These codings allow the proposition of semi-blind receivers to estimate the symbol and channel matrices without prior channel knowledge. In the first part of this thesis, a particular case of the multiple Khatri-Rao space-time (MKRST) coding is considered for a point-to-point MIMO system. For the MKRST coding, a symbol matrix is assumed known, which can be considered as a pre-coding matrix. For this coding scheme, a received signal tensor model is proposed, and new semi-blind receivers are presented to jointly estimate the symbols and the channel. In the second part of this thesis, a new coding extension based on the multiple Kronecker product of the symbol matrices is applied to a two-hop MIMO relay system. This system considers a single relay and the coding scheme is combined with a tensor space-time-frequency (TSTF) coding on both, transmit and relay nodes denoted by TSTF-MSMKron coding. For the proposed system, the tensor model is exploited to obtain receivers that jointly estimate channels and symbols in a semi-blind way. In each part of the thesis, conditions related to the uniqueness of tensor decompositions and the identifiability of the proposed algorithms are discussed. Simulation results are provided to evaluate the performance of the proposed coding schemes and the semi-blind receivers.

6
  • DIOGO DE OLIVEIRA COSTA
  • Plataforma de teste Hardware-In-the-Loop para controlador embarcado em um equipamento para ablação por radiofrequência.

  • Orientador : SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • ALLISSON LOPES DE OLIVEIRA
  • FÁTIMA MRUÉ
  • SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • Data: 30/04/2024

  • Mostrar Resumo
  • Este trabalho tem como objetivo principal o desenvolvimento de um protocolo e a modificação do equipamento de ablação por rádio frequência ARFACTA para a obtenção dos valores dos componentes do modelo de cole-cole, os quais serão utilizados no módulo Hardware in the loop (HIL) e no controlador. A partir dessa modificação, será criada uma bancada de testes que utilizará a tecnologia HIL para emular o comportamento de um órgão durante o procedimento de ablação.

    Essa bancada de testes terá a capacidade de representar a variação de impedância do órgão que foi submetido ao tratamento, permitindo verificar o comportamento e avaliar a eficácia do processo. O dispositivo possibilitará a realização de testes de controladores, buscando maximizar o tempo de tratamento através do atraso do roll-off da resposta em frequência.

    O desenvolvimento inclui a criação de um controlador de frequência com o propósito de otimizar os parâmetros de ablação, viabilizando a modificação da frequência da saída em uma faixa preestabelecida. Esse controlador dinâmico possui a capacidade de abranger diferentes regiões de tratamento, abrangendo as variáveis inerentes ao órgão em questão e ao próprio processo de tratamento. Esse avanço permitirá maximizar o tempo de tratamento ao atrasar o roll-off da resposta em frequência, visando melhorar a eficácia do procedimento médico e alcançar resultados mais satisfatórios para os pacientes.

    Esse conjunto de desenvolvimentos contribuirá para o avanço da tecnologia de ablação, proporcionando maior eficiência e controle no tratamento de órgãos, além de possibilitar a avaliação mais precisa dos indicadores de desempenho dos controladores utilizados. Com isso, espera-se aprimorar a eficácia dos procedimentos médicos, garantindo resultados mais satisfatórios para os pacientes.


  • Mostrar Abstract
  • The main objective of this work is the development of a protocol and the modification of the ARFACTA radiofrequency ablation equipment to obtain the values of the components of the cole-cole model, which will be used in the Hardware in the loop (HIL) module and in the controller. From this modification, a test bench will be created that will use the HIL technology to emulate the behaviour of an organ during the ablation procedure.

    This test bench will be able to represent the impedance variation of the organ that has undergone the treatment, allowing to verify the behaviour and evaluate the effectiveness of the process. The device will enable controller testing, seeking to maximise treatment time by delaying the roll-off of the frequency response.

    The development includes the creation of a frequency controller with the purpose of optimising the ablation parameters, enabling the modification of the output frequency in a pre-established range. This dynamic controller has the ability to cover different treatment regions, covering the variables inherent to the organ in question and to the treatment process itself. This advancement will allow maximising the treatment time by delaying the roll-off of the frequency response, aiming to improve the effectiveness of the medical procedure and achieve more satisfactory outcomes for patients.

    This set of developments will contribute to the advancement of ablation technology, providing greater efficiency and control in organ treatment, as well as enabling more accurate evaluation of the performance indicators of the controllers used. With this, it is expected to improve the effectiveness of medical procedures, ensuring more satisfactory results for patients.

2023
Dissertações
1
  • Rodrigo Bonifácio de Medeiros
  • Projeto de um controlador Fuzzy PID em hardware embarcado para um exoesqueleto de membro inferior

  • Orientador : DANIEL MAURICIO MUNOZ ARBOLEDA
  • MEMBROS DA BANCA :
  • ABEL GUILHERMINO DA SILVA FILHO
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • GUILLERMO ALVAREZ BESTARD
  • RENATO CORAL SAMPAIO
  • Data: 30/01/2023

  • Mostrar Resumo
  • Os manipuladores robóticos são sistemas de múltiplas entradas e saídas (MIMO) com vários pontos de não linearidades afetados por inúmeras incertezas e distúrbios. Os controladores PID são amplamente utilizados na indústria para controle cinemático e dinâmico, no entanto, quando aplicados a sistemas MIMO, eles não são fáceis de ajustar e requerem melhorias de desempenho. Neste trabalho, um controlador PID é proposto com um pré-compensador fuzzy (FP-PID), ambos sintonizados pelo algoritmo monobjetivo PSO e pelos algoritmos multiobjetivos NSGA-II e MODE para um manipulador robótico de dois graus de liberdade (2-DOF), representando um exosqueleto. Para validar o sistema foram utilizados dois conjun- tos de dados reais da marcha humana: caminhada normal e subida de escada, para estimar a trajetória de erro do manipulador. As análises estatísticas dos algoritmos com 16 experimen- tos foram satisfatórias e a adição do pré-compensador fuzzy ao PID convencional resultou em uma redução do erro quadrático médio de uma das juntas do manipulador em até 73 por cento, além da melhora na suavização do torque com os resultados multiobjetivos. O desenvolvimento de um co-projeto hardware-software para o modelo FP-PID do exosqueleto também é foco, embarcando o sistema em um processador ARM para o controle PID e da planta do manipulador robótico e uma arquitetura em FPGA para o módulo do controlador Fuzzy. O resultado mostra que a malha de controle permite manter o tempo de resposta dentro da faixa esperada da aplicação.


  • Mostrar Abstract
  • Robotic manipulators are multiple input/output (MIMO) systems with multiple points of nonlinearities affected by numerous uncertainties and disturbances. PID controllers are widely used in industry for kinematic and dynamic control. However, when applied to MIMO systems, it is not easy to tune them and achieve performance improvements. In this work, a standard PID controller is combined with a fuzzy precompensator (FP-PID), both of which are tuned using the PSO mono-objective algorithm and the multi-objective algorithms NSGA-II and MODE for a two-degree-of-freedom (2-DOF) robotic manipulator, representing an exoskeleton. To validate the system, two sets of real human gait data were used: normal walking and stair climbing to estimate the error trajectory of the manipulator. The statistical analyzes of the algorithms with 16 experiments were satisfactory, and the addition of the fuzzy precompensator to the conventional PID resulted in a reduction of the mean square error of one of the links of the manipulator by up to 73 percent, apart from improving the smoothing of the torque with the multi-objective results. Another focus is the development of a hardware-software co-project for the FP-PID model of the exoskeleton, embedding the system on an ARM processor for the PID and system plant of the robotic manipulator and an FPGA architecture for the fuzzy controller module. The result shows that the control loop keeps the response time within the expected range of the application.

2
  • Leonardo Bezerra Libanio
  • SINTONIA DE CONTROLADOR PID APLICADO A UM GRUPO MOTOR GERADOR COM A UTILIZAÇÃO DE ALGORITMOS BIOINSPIRADOS

  • Orientador : DANIEL MAURICIO MUNOZ ARBOLEDA
  • MEMBROS DA BANCA :
  • CARLOS HUMBERTO LLANOS QUINTERO
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • MAURICIO FIGUEIREDO DE OLIVEIRA
  • RUDI HENRI VAN ELS
  • Data: 13/02/2023

  • Mostrar Resumo
  • O presente trabalho apresenta o desenvolvimento de um controlador proporcional integral derivativo (PID) para um conjunto motor gerador com a utilização de algoritmos bioinspirados, e propõe uma alternativa para atender a sintonia em ambientes offshore. A sintonização do controlador foi realizada a partir da formulação de um problema de otimização, cuja análise de desempenho é feita fazendo o seguimento de trajetória, aplicando perturbações ao incrementar e decrementar cargas no sistema de potência, fornecendo assim os dados necessários para otimizar o sistema e elevar o potencial mecânico, reduzir instabilidades e manutenção e aumentar a eficiência energética. É apresentada uma análise preliminar dos componentes e variáveis envolvidos no sistema motor gerador, a saber: motor de combustão interna, gerador elétrico, controlador e o sistema de aquisição de dados. Foi feita uma modelagem não linear simplificada, a partir de uma função de transferência de um servossistema. O modelo obtido foi usado para extrair um conjunto de parâmetros de desempenho do controlador que guiam o processo de busca dos algoritmos de otimização por enxame de partículas (PSO) e por evolução diferencial (DE), assim como suas variações, utilizando Matlab/Simulink. Para efeitos comparativos, foi usada a função do PID Tune, permitindo avaliar o desempenho dos algoritmos bioinspirados. Com os parâmetros PID obtidos foram realizadas simulações do projeto e discussões. Posteriormente, os parâmetros PID foram implementados no controlador, realizando ensaios de seguimento de trajetória com um motor Wartsila, acoplado a um gerador elétrico Leroy Somer da instalação offshore plataforma 65 da Petrobras. Finalmente, é feita uma discussão sobre a validade da proposta de otimização do controlador com a sintonia selecionada e uma análise dos parâmetros do conjunto motor gerador é apresentada, assim como as conclusões e sugestões para continuação da pesquisa.


  • Mostrar Abstract
  • The present work presents the development of a proportional integral derivative (PID) tuning for a motor generator set using bioinspired algorithms, and proposes an alternative to meet the tuning in offshore environments. The tuning of the controller was carried out from the formulation of an optimization problem, whose performance analysis is done by tracking the trajectory of the response in time domain, applying disturbances when increasing and decreasing loads in the power system, thus providing the necessary data to optimize the system and raise the mechanical potential, reducing instabilities and maintenance and increasing the energy efficiency. A preliminary analysis of the components and variables involved in the motor-generator system is presented, namely: internal combustion engine, electric generator, controller and data acquisition system. A simplified non-linear modeling was made, from a transfer function of a servo system. The obtained model was used to extract a set of controller performance parameters that guide the search process of particle swarm optimization (PSO) and differential evolution (DE) algorithms, as well as their variations, using Matlab/Simulink. For comparative purposes, the PIDTune function was used, allowing the evaluation of the performance of bioinspired algorithms. With the obtained PID parameters, project simulations and discussions were carried out. Subsequently, the PID parameters were implemented in the controller, following trajectory tracking tests with a Wartsila engine, coupled to a Leroy Somer electric generator from the Petrobras platform 65 offshore installation. Finally, a discussion is made about the effectiveness of the proposed optimization of the controller with the selected tuning and an analysis of the engine-generator set parameters is presented, as well as conclusions and suggestions for further research.

3
  • Carlos Alberto Alvares Rocha
  • Aprendizado Profundo Aplicado a Classificação de Textos Longos com Poucos Dados: O Caso do PPF

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • VICTOR RAFAEL REZENDE CELESTINO
  • MARCELO XAVIER GUTERRES
  • Data: 16/03/2023

  • Mostrar Resumo
  • O processamento de linguagem natural (PLN) é uma área da inteligência artificial que vem ganhando bastante atenção nos últimos anos. Os grandes avanços recentes atraíram a atenção do Ministério de Ciência, Tecnologia e Inovações (MCTI) para a execução de um projeto com o objetivo de localizar financiamento internacional para pesquisa e desenvolvimento acessível aos pesquisadores brasileiros. A classificação aparece como um desafio para essa solução devido a ausência de dados rotulados de alta qualidade, que são requisitos para a maioria das implementações estado-da-arte na área. Este trabalho explora diferentes estratégias de aprendizado de máquina para classificar os textos longos, não estruturados e irregulares, obtidos através da raspagem de websites de instituições de financiamento, para, através de uma abordagem incremental, encontrar um método adequado com um bom desempenho. Devido a limitada quantidade de dados disponível para o treinamento supervisionado, foram empregadas soluções de pré-treinamento para aprender o contexto das palavras a partir de outros conjuntos de dados, com grande similaridade e maior tamanho. Em seguida, utilizando as informações adquiridas, foi aplicada uma transferência de aprendizado associada a modelos de aprendizado profundo para aprimorar a compreensão de cada sentença. Para diminuir o impacto da irregularidade dos textos, foram realizados experimentos de pré-processamento para a identificação das melhores técnicas a serem utilizadas para esse tipo de conteúdo. Em comparação com a baseline do trabalho, foi possível alcançar um novo patamar de resultados, excedendo 90% de acurácia em grande parte dos modelos treinados. Destacam-se os modelos Longformer + CNN que atingiu 94% de acurácia com 100% de precisão e o modelo Word2Vec + CNN com 93,55% de acurácia. As descobertas do estudo representam uma aplicação bem-sucedida de inteligência artificial na administração pública. 


  • Mostrar Abstract
  • Natural language processing (NLP) is an area of artificial intelligence that has been gaining a lot of attention in recent years. The great recent advances attracted the attention of the Ministry of Science, Technology and Innovations (MCTI) to the execution of a project with the objective of locating international funding for research and development accessible to Brazilian researchers. Classification appears as a challenge for this solution due to the absence of high quality labeled data, which are requirements for most state-of-the-art implementations in the field. This work explores different machine learning strategies to classify long, unstructured and irregular texts, obtained by scraping websites of funding institutions, to, through an incremental approach, find a suitable method with good performance. Due to the limited amount of data available for supervised training, pre-training solutions were employed to learn the context of words from other datasets, with great similarity and larger size. Then, using the acquired information, a transfer of learning associated with deep learning models was applied to improve the understanding of each sentence. To reduce the impact of text irregularity, pre-processing experiments were carried out to identify the best techniques to be used for this type of content. Compared to the baseline of the work, it was possible to reach a new level of results, exceeding 90% accuracy in most of the trained models. The Longformer + CNN models stand out, which reached 94% accuracy with 100% accuracy and the Word2Vec + CNN model with 93.55% accuracy. The study's findings represent a successful application of artificial intelligence in public administration. 

4
  • ANDREA HENRIQUE CAMPOS DA FONSECA
  • Estudo de Caso: Aplicação de Sistemas de Informação e Inserção de Produtos Mecatrônicos na Melhoria do Atendimento ao Usuário SUS e no Combate a COVID-19

  • Orientador : SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • MEMBROS DA BANCA :
  • SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • ANTONIO PIRATELLI FILHO
  • EUGENIO LIBORIO FEITOSA FORTALEZA
  • Paulo Roberto dos Santos
  • Data: 02/06/2023

  • Mostrar Resumo
  • No Brasil, os sistemas de informação voltados ao atendimento de demandas sociais como os serviços públicos de saúde têm tido um olhar mais preocupado com a crise sanitária mundial - COVID-19- que estamos enfrentando, mas ainda há limitações no campo da tecnologia da informação nos serviços públicos de saúde, atenção básica, verificação de exames agendados, consultas e atendimento em salas de vacina. O presente capítulo tratará do Projeto Pesquisa e Inovação, do 3TS que compreende os módulos SUS+, que é a possibilidade de autoatendimento ao paciente, e do Imuna SUS que mostra o controle das vacinas recebidas. Esse conjunto de Sistemas de Tecnologia e Comunicação (TIC) possui etapas que vão desde a concepção original do sistema de informação até sua chegada ao SUS, agregando valor aos serviços prestados pelo SUS


  • Mostrar Abstract
  • In Brazil, the information systems aimed at meeting social demands such as public health services have had a more concerned look at the global health crisis - COVID-19- that we are facing, but there are still limitations in the field of information technology in public health services, primary care, verification of scheduled exams, consultations, and care in vaccine rooms. This chapter will deal with the Research and Innovation Project, the 3TS that comprises the SUS+ modules, which is the possibility of self-service to the patient, and the Imuna SUS that shows the control of received vaccines. This set of Technology and Communication Systems (TIC) has steps that go from the original conception of the information system to its arrival at SUS, adding value to the services provided by SUS

5
  • Elpídio Cândido de Araújo Bisneto
  • Transferência Simultânea de Dados e Energia sem Fio Aplicado a Rede de Sensores

  • Orientador : DANIEL MAURICIO MUNOZ ARBOLEDA
  • MEMBROS DA BANCA :
  • OLYMPIO LUCCHINI COUTINHO
  • DANIEL COSTA ARAUJO
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • LEONARDO AGUAYO
  • Data: 14/06/2023

  • Mostrar Resumo
  • A tecnologia de Transferência Simultânea de Dados e Energia Sem Fio (SWIPT) tem se destacado como uma solução promissora para transmitir dados e fornecer energia simultaneamente de forma estável. O SWIPT utiliza sinais de radiofrequência (RF) para transportar tanto dados quanto energia, o que o torna uma opção atrativa para aplicações em ambientes de difícil acesso, como os veículos aéreos não tripulados (UAVs) e a agricultura inteligente.

    No entanto, o SWIPT enfrenta desafios, como a transmissão eficiente de energia a longas distâncias e a restrição de potência na faixa de frequência ISM. Além disso, é necessário encontrar um equilíbrio entre a transmissão de dados e energia, levando em consideração o consumo energético e a robustez na transmissão e recepção de dados.

    Nesse contexto, este trabalho tem como objetivo desenvolver um circuito SWIPT baseado na modulação Amplitude Shift Keying (ASK) e na arquitetura Dual-Polarized (DP). São considerados aspectos como a eficiência de captura de energia, a taxa de transmissão de dados e o trade-off entre os dois. Além disso, é proposta uma otimização no arranjo de antenas utilizando algoritmos bioinspirados para a diminuição de lóbulos secundários.

    Os resultados obtidos mostram uma eficiência do conversor RF-DC de 78,94% para 17 dBm, uma taxa de transmissão de dados de 7 kbps com uma taxa de erro de bit (BER) de 10E-3 para uma relação sinal-ruído (SNR) de 13 dB. O arranjo de antenas alcançou um ganho de 12.55dBi na polarização vertical e uma média de ganho de 7.16 dBi na polarização horizontal.

    Os dados experimentais demonstram que o sistema proposto é um receptor SWIPT viável para diversas aplicações de monitoramento usando redes de sensores sem fio. A solução alcançou uma boa eficiência energética e capacidade de receber potências altas de entrada. O arranjo de antenas permite a transmissão simultânea de dados e energia, garantindo o isolamento entre os sistemas. Este trabalho destaca a arquitetura Dual Polarized como promissora, com possibilidade de otimizações e melhorias em trabalhos futuros.


  • Mostrar Abstract
  • The Simultaneous Wireless Information and Power Transfer (SWIPT) technology has emerged as a promising solution for simultaneous stable data and power transmission. SWIPT uses radio frequency (RF) signals to transport both data and energy, making it an attractive option for applications in challenging environments such as unmanned aerial vehicles (UAVs) and smart agriculture.

    However, SWIPT faces obstacles such as efficient long-distance power transmission and power constraints in the ISM frequency range. Additionally, a balance needs to be struck between data and energy transmission, considering energy consumption and robustness in data transmission and reception.

    In this context, this work aims to develop a SWIPT circuit based on Amplitude Shift Keying (ASK) modulation coupled with a Dual-Polarized (DP) architecture. Aspects such as energy harvesting efficiency, data transmission rate, and the trade-off between the two are considered. Furthermore, an optimization in the antenna array is proposed using bio-inspired algorithms to reduce side lobes.

    The obtained results show an RF-DC converter efficiency of 78.94% for 17 dBm, a data transmission rate of 7 kbps with a bit error rate (BER) of 10E-3 for a signal-to-noise ratio (SNR) of 13 dB. The antenna array achieved a gain of 12.55 dBi in the vertical polarization and an average gain of 7.16 dBi in the horizontal polarization.

    Experimental data demonstrates that the proposed system is a viable SWIPT receiver for various monitoring applications using wireless sensor networks. The solution achieved good energy efficiency and the ability to receive high input powers. The antenna array allows for simultaneous data and energy transmission while ensuring isolation between the systems. This work highlights the Dual-Polarized architecture as promising, with potential optimizations and improvements in future works.

6
  • Rafael Pissinati de Souza
  • DESENVOLVIMENTO DE UM EQUIPAMENTO MÉDICO ASSISTENCIAL CAPAZ DE APRIMORAR O CONTROLE DE POTÊNCIA ATRAVÉS DE VARIAÇÃO DE FREQUÊNCIA COM REALIMENTAÇÃO DE BIOIMPEDÂNCIA COMPLEXA

     

  • Orientador : SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • MEMBROS DA BANCA :
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • ICARO DOS SANTOS
  • Paulo Roberto dos Santos
  • SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • Data: 18/07/2023

  • Mostrar Resumo
  • Problema: Apesar dos grandes avanços nas modelagens na ablação por radiofrequência, uma  grande dificuldade se dá devido  às características intrínsecas aos tecidos do corpo humano. Variações  na quantidade de água e gordura na composição corporal dos pacientes geram variações significativas entre os modelos e os resultados obtidos nas ablações

    Objetivo: Desenvolver um equipamento de ablação por radiofrequência generalista, capaz de  realizar a leitura da bioimpedância complexa e ajustar a frequência e a amplitude da onda, para  melhorar o casamento de impedância e elevar a eficiência do processo de ablação

    Metodologia: O desenvolvimento tomou como base o circuito do equipamento que já estava em desenvolvimento, porém todos os circuitos foram analisados, simulados e alguns foram projetados. O equipamento conta com uma fonte principal, com um circuito regulador de tensão  para 5 e 12V dc (Volts em corrente contınua), conta com um conversor Buck variável, que  é responsável por alimentar o circuito de potência, um circuito Push-Pull para gerar o sinal alternado,  circuitos de medição de corrente e tensão, além do circuito de medição de deslocamento de fase, para que possa determinar a impedância complexa do tecido. Para validar o funcionamento do  equipamento realizamos ablação em tecido hepático suíno e bovino com variação de potência. 

    Resultados: A ablação realizada em fígado bovino apresentou uma curva relacionando a variação da potência com a  área de ablação, mostrando que há um tempo ótimo para que seja alcançada ablação com potência constante. Os ensaios em fígado suíno apresentaram constância  na área de ablação, ainda que os testes tenham sido realizados em diferentes setores. Também foi  possível determinar que a implementação de um controle é capaz de ampliar significativamente a  área de ablação. 

    Conclusão: O equipamento se mostrou apto a receber técnicas de controle de tensão e frequência  para maximizar a transferência de potência e ampliar a área de ablação. Devido à capacidade do equipamento de se comunicar via wi-fi, há a possibilidade de implementar sistemas complexos de controle sem comprometer o processamento local do equipamento.


  • Mostrar Abstract
  • Problem: Despite the great advances in modeling in radiofrequency ablation, a great difficulty is due to the intrinsic characteristics of human body tissues. Variations in the amount of water and fat in the body composition of patients generate significant variations between the models and the results obtained in the ablations.

    Objective: To develop a generalist radiofrequency ablation equipment, capable of performing complex bioimpedance reading and adjusting the frequency and amplitude of the wave, to improve impedance matching and increase the efficiency of the ablation process.

    Methodology: The development was based on the circuit of the equipment that was already under development, but all circuits were analyzed, simulated and some were designed. The equipment has a main source, with a voltage regulator circuit for 5 and 12V dc (Volts in direct current), has a variable Buck converter, which is responsible for feeding the power circuit, a Push-Pull circuit to generate the alternating signal, current and voltage measurement circuits, in addition to the phase shift measurement circuit, so that it can determine the complex impedance of the tissue. To validate the operation of the equipment, we performed ablation in porcine and bovine liver tissue with power variation.

    Results: The ablation performed in bovine liver presented a curve relating the variation of power with the ablation area, showing that there is an optimal time for ablation with constant power to be achieved. The tests on porcine liver showed constancy in the ablation area, even though the tests were performed in different sectors. It was also possible to determine that the implementation of a control is able to significantly increase the ablation area.

    Conclusion: The equipment was able to receive voltage and frequency control techniques to maximize power transfer and increase the ablation area. Due to the ability of the equipment to communicate via wi-fi, there is the possibility to implement complex control systems without compromising the local processing of the equipment.

7
  • KLÉRISTON SILVA SANTOS
  • ARFACTA — PROJETO DE DESENVOLVIMENTO E IMPLEMENTAÇÃO DE UM EQUIPAMENTO DE ABLAÇÃO TUMORAL BASEADO EM SIMULAÇÃO COM ENSAIOS EX VIVO

  • Orientador : SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • MEMBROS DA BANCA :
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • ICARO DOS SANTOS
  • Paulo Roberto dos Santos
  • SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • Data: 01/08/2023

  • Mostrar Resumo
  • A Ablação por Radiofrequência (ARF) é um procedimento minimamente invasivo e eficaz para tratar Carcinomas Hepatocelulares (CHC). Durante o procedimento, um eletrodo é inserido na área afetada do fígado e a radiofrequência gera calor intenso na ponta do eletrodo. Esse calor é capaz de destruir completamente o tumor, levando à necrose da região afetada. A ARF tem sido amplamente utilizada como uma tecnologia consolidada na área médica para o tratamento eficiente do CHC, oferecendo vantagens como redução do tempo de internação e complicações pós-cirúrgicas. O procedimento de ARF possui algumas limitações, incluindo a resposta inadequada em tumores maiores que 3 cm, a falta de personalização dos protocolos de aplicação de energia para cada paciente, baixa padronização inerente aos equipamentos geradores utilizado nos procedimentos, e a falta de padronização na descrição do comportamento dinâmico do tecido durante a ARF. Nesse sentido o seguinte trabalho consiste em determinar parâmetros que subsidiem a abordagem de um novo hardware capaz de sanar estas lacunas. Um novo hardware foi desenvolvido com base nos padrões atuais de mercado, capaz de ser amplamente ajustável e dinâmico, proporcionando as condições de controle de forma satisfatória com confiabilidade na parte do circuito de potência. Durante o desenvolvimento do trabalho, foram considerados diversos aspectos, incluindo a compreensão do comportamento do da demanda de sinal de saída, controle do circuito inversor push-pull através do duty cycle, fornecimento de energia através dos reguladores CC-CC, dentre outros. Também foram estudados os efeitos físicos da radiofrequência no fígado. Foram realizadas simulações de circuitos elétricos para analisar a influência da demanda energética de cada bloco do circuito de ARF, com o propósito de garantir a confiabilidade dos sinais demandados pelos componentes eletrônicos no novo equipamento. Essas simulações permitiram uma melhor compreensão do comportamento do circuito e, poupando tempo e recursos materiais, os quais auxiliaram na proposição de um projeto mais eficiente e preciso para a ARF. Para comprovação dos dados simulados, um protótipo foi sugerido e montado, possibilitando seu uso em testes e coleta de dados com fígado bovino ex vivo.


  • Mostrar Abstract
  • Radiofrequency Ablation (RFA) is a minimally invasive and effective procedure to treat Hepatocellular Carcinomas (HCC). During the procedure, an electrode is inserted into the affected area of the liver and radiofrequency generates intense heat at the tip of the electrode. This heat can destroy the tumor, leading to necrosis of the affected region. A RFA has been widely used as an established technology in the medical field for the efficient treatment of HCC, offering advantages such as reduced hospital stays and post-surgical complications. The RFA procedure has some limitations, including inadequate response for tumors larger than 3 cm, lack of customization of energy application protocols for each patient, low standardization inherent to the generating equipment used in the procedures, and lack of standardization in the description of the dynamic behavior of the tissue during RFA. Thus, the following paper consists in determining parameters that subsidize the approach of a new hardware capable of solving these gaps. A new hardware was developed based on current market standards, capable of being widely adjustable and dynamic, providing satisfactory control conditions with reliability in the power circuit part. During the development of the work, several aspects were considered, including understanding the behavior of the output signal demand, control of the push-pull circuit through the duty cycle, power supply through the DC-DC regulators, among others. The physical effects of radiofrequency on the liver were also studied. Electrical circuit simulations were performed to analyze the influence of the energy demand of each block of the RFA circuit, with the purpose of ensuring the reliability of the signals demanded by the electronic components in the new equipment. These simulations allowed a better understanding of the circuit behavior and, saving time and material resources, which helped in the proposition of a more efficient and precise design for the RFA. To prove the simulated data, a prototype was suggested and assembled, enabling its use in tests and data collection with porcine liver ex vivo.

8
  • Pedro Aurelio Coelho de Almeida
  • Modelo de aprendizagem não supervisionado baseado em saliência visual para segmentação automática da região pulmonar em imagens de raio-X

  • Orientador : DIBIO LEANDRO BORGES
  • MEMBROS DA BANCA :
  • DIBIO LEANDRO BORGES
  • HELIO PEDRINI
  • SANDERSON CESAR MACEDO BARBALHO
  • SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • Data: 25/08/2023

  • Mostrar Resumo
  • Separar automaticamente regiões com propriedades semelhantes em uma imagem, também chamada de segmentação, é uma tarefa desafiadora para sistemas computacionais, mas também capaz de economizar esforço e evitar erros por fadiga de seres humanos. Uma das áreas do conhecimento que pode se beneficiar de métodos de segmentação automática é a de imagens médicas. Nesse aspecto, raios-X torácicos compõem uma aplicação extremamente valiosa de segmentação automática de imagens, devido ao seu baixo custo de implementação e captura de informações ligadas a doenças pulmonares. Métodos computacionais automáticos atuais com grande aplicação na segmentação pulmonar de raios-X necessitam de dados previamente rotulados para ’aprender’ a realizar essa tarefa. Uma alternativa a esses métodos é a aprendizagem profunda não supervisionada, que precisa somente da imagem de raio-X. Considerando o aspecto visual de segmentação e o destaque visual da área pulmonar dentro de uma imagem de raio-X, propõe-se combinar aprendizagem profunda não supervisionada com a área de saliência visual, que busca estimar as porções da imagem que mais atraem a atenção visual humana, para segmentar a região pulmonar de raios-X. O método de saliência visual é comparado a outros trabalhos de aprendizagem não supervisionada e também supervisionadas destinados à segmentação de regiões corporais em imagens em escala de cinzas. Os resultados com as métricas Dice, Jaccard, precisão e revocação nas bases de dados JSRT e MC indicam que a melhoria de desempenho do modelo baseado em saliência é estatisticamente significativa quando comparado às técnicas não supervisionadas. Se analisado a partir de abordagens supervisionadas, o método baseado em saliência parece ser adequado como substituto das suas contrapartes, tendo em vista a flexibilidade obtida pela independência de rótulos manualmente definidos. Trabalhos futuros incluem segmentar a área cardíaca e identificar anomalias em imagens de raios-X de forma não supervisionada.


  • Mostrar Abstract
  • Automatically dividing an image into regions of similar properties, named segmentation, is a challenging task for computers, and it can avoid human errors induced by fatigue. One area that may be greatly benefited from automatic segmentation methods is medical imaging analysis. Within it, chest X-rays are amongst the cheapest and most widely available type of medical images. Provided they can be used for diagnosing lung related diseases, they are an excellent target for automatic image segmentation methods. The current state-of-the art image segmentation relies on manual labels defined a priori to ’learn’ the necessary features for this task. Deep unsupervised learning stands as an interesting alternative to supervised methods, since it only requires the input (e.g. the image X-ray) for training. Due to the visual nature of image segmentation and the standout aspect of the lungs on an X-ray, the combination of unsupervised learning and visual saliency (i.e. the attempt to model human visual attention) is tested for the lung segmentation on X-ray images. The saliency method is compared to state-of-the-art supervised and unsupervised models designed for grayscale medical image segmentation. Results using the Dice, jaccard, precision and recall scores on JSRT and MC datasets indicate that the saliency method enhanced performance over other unsupervised approaches is statistically significant. When compared to supervised models, the saliency method appears to adequately substitute them given the flexibility achieved by the independence from manual labels. Future work includes segmenting the cardiac area and identifying anomalies on X-ray images in an unsupervised fashion.

9
  • MARIANNYS RODRIGUEZ GASCA
  • ANÁLISE DO IMPACTO DA SENIORIDADE DA EQUIPE SOBRE O DESEMPENHO DO TRABALHO COLABORATIVO: ESTUDO DE CASO DE UMA EQUIPE DE DESENVOLVIMENTO DE UM VENTILADOR MECANICO PULMONAR

  • Orientador : SANDERSON CESAR MACEDO BARBALHO
  • MEMBROS DA BANCA :
  • SANDERSON CESAR MACEDO BARBALHO
  • CARLOS HUMBERTO LLANOS QUINTERO
  • LUIS ANTONIO PASQUETTI
  • MARLY MONTEIRO DE CARVALHO
  • Data: 28/08/2023

  • Mostrar Resumo
  • A mecatrônica é um campo em constante evolução, impulsionado pelas tecnologias
    avançadas, que combina engenharia mecânica de precisão, controle eletrônico e pensamento
    sistêmico para projetar produtos e processos de fabricação. Essa abordagem tem aplicação em
    diversas áreas, como medicina, indústria, automação e sistemas de controle. Nesse sentido, o
    trabalho em equipe interdisciplinar é fundamental para garantir a integração dessas disciplinas
    e, portanto, um alto desempenho dos produtos mecatrônico. Por tanto, as caraterísticas da
    composição da equipe são fundamentais para otimizar esse processo. Nesse contexto, esta
    pesquisa propus avaliar um framework de desempenho de trabalho em equipes virtuais de
    desenvolvimento de produto mediado por uma relação de senioridade (escolaridade e
    experiencia prática desenvolvimento). Para isso o framework foi baseado na estrutura de fatores
    de entrada-processo-saída. Além disso, a pesquisa analisa um estudo de caso para avaliar como
    foi a atuação dos diferentes perfis de senioridade dos membros durante o projeto e como isso
    impacto nos resultados do projeto. Os resultados mostraram tendencias interessantes com
    respeito da influência positiva do perfil sênior com respeito das interações e desempenho nos
    fatores de entrada-processos -saída, com ênfases especiais nos fortalecimentos dos processos
    ao longo do projeto. Enquanto os membros de perfil júnior, permitiram observar que
    enfrentaram maiores desafios e portanto um desempenho mais baixo na sua atuação no projeto.


  • Mostrar Abstract
  • Mechatronics is a field in constant evolution, driven by advanced technologies, which
    combines precision mechanical engineering, electronic control and systems thinking to design
    products and manufacturing processes. This approach is applied in various areas, such as
    medicine, industry, automation and control systems. In this sense, the work in an
    interdisciplinary team is fundamental to guarantee the integration of these disciplines and,
    therefore, a high performance of the two mechatronic products. Therefore, the characteristics
    of the composition of the equipment are essential to optimize this process. In this context, this
    research proposed to evaluate a work performance framework in virtual product development
    teams mediated by a seniority relationship (education and practical development experience).
    For this framework, it was based on the input-process-output factor structure. Furthermore, the
    research analyzes a case study to evaluate how two different seniority profiles of two members
    performed during the project and how this impacted the results of the project. The results will
    show interesting trends with respect to the positive influence of the senior profile with respect
    to the interactions and performance of the input-process-output factors, with special emphasis
    on strengthening the two processes throughout the project. As for the junior profile members,
    they will allow us to observe that they will face greater challenges and therefore a lower
    performance in their performance in the project.

10
  • TIAGO MARTINS DE BRITO
  • DESENVOLVIMENTO DE UM SISTEMA DE ABLAÇÃO POR RADIOFREQUÊNCIA PARA CARACTERIZAÇÃO DA CURVA DE ROLL OFF EM TECIDOS HEPÁTICO, PULMONAR E CARDÍACO.

  • Orientador : SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • MEMBROS DA BANCA :
  • SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • ANTONIO PIRATELLI FILHO
  • ADSON FERREIRA DA ROCHA
  • ALLISSON LOPES DE OLIVEIRA
  • Data: 07/11/2023

  • Mostrar Resumo
  • Neste estudo de mestrado, abordamos as complexidades e as implicações do câncer, uma enfermidade intrincada com impacto significativo na saúde global. Nosso enfoque se direciona a três condições médicas críticas: câncer de fígado, câncer de pulmão e arritmia cardíaca. O cerne deste projeto reside no desenvolvimento do ARFACTA, um dispositivo biomédico inovador que faz uso da ablação por radiofrequência como tratamento. Além disso, investigamos a caracterização das curvas de roll off em tecido bovino e suíno post-mortem mantidos em um estado ex-vivo. Essa pesquisa atende à crescente demanda por tratamentos acessíveis dentro do Sistema Único de Saúde (SUS), baseada em dados que destacam a dispendiosidade das alternativas de importação. O objetivo primordial é melhorar a qualidade de vida dos pacientes, reduzir os custos associados ao tratamento e aliviar a pressão sobre os sistemas de saúde, tanto públicos quanto privados.


  • Mostrar Abstract
  • In this master's study, we address the complexities and implications of cancer, an intricate disease with a significant impact on global health. Our focus is directed towards three critical medical conditions: liver cancer, lung cancer, and cardiac arrhythmia. The core of this project lies in the development of ARFACTA, an innovative biomedical device that utilizes radiofrequency ablation as a treatment. Additionally, we investigate the characterization of roll-off curves in post-mortem bovine and porcine tissue maintained in an ex-vivo state. This research meets the growing demand for affordable treatments within the Unified Health System (SUS), based on data that highlight the costliness of import alternatives. The primary goal is to improve the quality of life for patients, reduce the costs associated with treatment, and alleviate the strain on healthcare systems, both public and private.

11
  • Angélica Kathariny de Oliveira Alves
  • Modelagem Bond Graph das características biofísicas do tecido hepático aplicada ao controle do procedimento de ablação por radiofrequência

  • Orientador : SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • MEMBROS DA BANCA :
  • SUELIA DE SIQUEIRA RODRIGUES FLEURY ROSA
  • ADSON FERREIRA DA ROCHA
  • ALLISSON LOPES DE OLIVEIRA
  • FÁTIMA MRUÉ
  • Data: 09/11/2023

  • Mostrar Resumo
  • Neste estudo, é abordado o desafio do tratamento do Carcinoma Hepatocelular (CHC), um câncer de fígado fatal. Reconhecendo as limitações da ablação por radiofrequência (ARF) devido às variações biofísicas no tecido hepático relacionado ao CHC, o objetivo principal é o desenvolvimento de um modelo adaptado de Cole-Cole utilizando a técnica de modelagem Bond Graph (BG). Essa adaptação incorporará as complexas características do tecido hepático afetado pelo CHC, incluindo variações associadas a cirrose hepática, gordura e vasos sanguíneos. As contribuições esperadas deste estudo incluem o aprimoramento da compreensão da interação entre a ARF e o tecido alvo, possibilitando análises detalhadas de estabilidade e eficácia do sistema, potencialmente resultando em avanços significativos nas estratégias de tratamento para pacientes com CHC, além de fornecer uma base sólida para futuras pesquisas multidisciplinares.


  • Mostrar Abstract
  • In this study, the challenge of treating Hepatocellular Carcinoma (HCC), a fatal liver cancer, is addressed. Recognising the limitations of radiofrequency ablation (RFA) due to biophysical variations in HCC-related liver tissue, the main objective is to develop an adapted Cole-Cole model using the Bond Graph (BG) modelling technique. This adaptation will incorporate the complex characteristics of liver tissue affected by HCC, including variations associated with liver cirrhosis, fat and blood vessels. The expected contributions of this study include improved understanding of the interaction between ARF and the target tissue, enabling detailed analyses of the system’s stability and efficacy of the system, potentially resulting in significant advances in treatment strategies for HCC patients, as well as providing a solid foundation for future multidisciplinary future multidisciplinary research.

12
  • Yasmin Yunes Salles Gaudard
  • Utilização de Engenharia de Sistemas Baseada em Modelos para a implantação de Gêmeos Digitais em Sistema de Manufatura.

  • Orientador : JONES YUDI MORI ALVES DA SILVA
  • MEMBROS DA BANCA :
  • ANDREA CRISTINA DOS SANTOS
  • JONES YUDI MORI ALVES DA SILVA
  • REGIS KOVACS SCALICE
  • SANDERSON CESAR MACEDO BARBALHO
  • Data: 15/12/2023

  • Mostrar Resumo
  • Historicamente, cada revolução industrial surgiu apoiada por tecnologias que aumentaram a eficiência e reduziram os custos. A Indústria 4.0, aclamada por muitos como a 4ª Revolução Industrial, é suportada por um conjunto de Tecnologias Habilitadoras, como Big data, Robótica, Inteligência Artificial, Computação em Nuvem, Manufatura Aditiva, Internet das Coisas, Realidade Virtual/Aumentada, entre outras. Ao associar essas tecnologias, há uma convergência para o conceito de Sistemas Ciber-Físicos, e uma de suas implementações é o Digital Twin (DT). Um DT é normalmente definido como uma representação virtual de um objeto ou processo físico, permitindo simulações ultra-realistas de modelos físicos, captura de dados históricos e processamento/monitorização em tempo real. Diferentes níveis de abstração e detalhe oferecem visões variadas dos sistemas, equipamentos, processos e produtos industriais. Dada a sua complexidade e composição multi-tecnológica, a sua implementação não é fácil. Neste contexto, propomos a utilização de uma metodologia baseada na Engenharia de Sistemas Baseada em Modelos (MBSE) para apoiar a evolução tecnológica de uma indústria modelo, com o objetivo de implementar a sua TD. A nossa indústria modelo é um laboratório de inovação composto por vários sectores: Gestão, Gabinete de Design, Fabrico (vários processos), Stocks, e Manutenção, entre outros. Neste trabalho, centramo-nos na área do Fabrico Aditivo para clientes externos (empresas privadas) e internos (projectos académicos), proporcionando a modelação do caminho ótimo desde a chegada de uma ordem de trabalho até à impressão 3D e entrega final das peças. Utilizando o Modelo de Arquitetura de Referência para a Indústria 4.0 (RAMI-4.0) e o Quadro de Gémeos Digitais ISO para o Fabrico (ISO-2347), modelámos o sistema a vários níveis com o método MBSE Arcadia através da ferramenta gratuita Capella. Como resultado, chegámos à Arquitetura Final do Sistema, indicando os actores envolvidos no cenário, as suas funcionalidades e o fluxo de interação entre todos os componentes. Este modelo permite a simulação e análise num único quadro, considerando o sistema completo e não apenas subsistemas isolados. Ele nos fornece correlações entre indicadores de diferentes níveis de abstração, gerando a base para a implementação de um DT multi-escopo. Podemos destacar que os sistemas MBSE, mesmo suportados por métodos formais de Engenharia de Sistemas, ainda não podem ser considerados maduros o suficiente. Consequentemente, suas ferramentas estão em constante evolução e novas aplicações favorecem sua consolidação. Portanto, os princípios utilizados na construção deste trabalho resultam em uma metodologia inovadora ao aliar o suporte ferramental do MBSE para a implementação eficiente de Gêmeos Digitais para Sistemas de Manufatura.


  • Mostrar Abstract
  • Historically, each Industrial Revolution emerged supported by technologies that increased efficiency and reduced costs. Industry 4.0, acclaimed by many as the 4th Industrial Revolution, is supported by a set of Enabling Technologies, such as Big data, Robotics, Artificial Intelligence, Cloud Computing, Additive Manufacturing, Internet of Things, and Virtual/Augmented Reality, among others. When associating these technologies, there is a convergence to the Cyber-Physical Systems concept, and one of its implementations is the Digital Twin (DT). A DT is commonly defined as a virtual representation of a physical object or process, allowing ultra-realistic simulations of physical models, capturing historical data, and real-time processing/monitoring. Different levels of abstraction and detail offer varied views of industrial systems, equipment, processes, and products. Given its complexity and multi-technological composition, its implementation is not smooth. In this context, we propose using a methodology based on Model-Based Systems Engineering (MBSE) to support a model industry's technological evolution, aiming to implement its DT. Our model industry is an innovation laboratory comprising several sectors: Management, Design Office, Manufacturing (several processes), Stock, and Maintenance, among others. In this work, we focus on the area of Additive Manufacturing for external customers (private companies) and internal ones (academic projects), providing the modelling of the optimal path from the arrival of a work order to 3D printing and final delivery of parts. Using the Reference Architecture Model for Industry 4.0 (RAMI-4.0) and the ISO Digital Twin Framework for Manufacturing (ISO-2347), we modelled the system at several levels with the MBSE Arcadia method through the free tool Capella. As a result, we reached the Final System Architecture, indicating the actors involved in the scenario, their functionalities and the interaction flow among all the components. This model allows the simulation and analysis in a single framework considering the complete system and not only isolated subsystems. It provides us with correlations among indicators of different abstraction levels, generating the basis for implementing a multi-scope DT. We can highlight that MBSE systems, even supported by formal methods of Systems Engineering, still cannot be considered mature enough. Consequently, its tools constantly evolve, and new applications favour its consolidation. Therefore, the principles used to construct this work result in an innovative methodology by allying MBSE's tooling support to implement Digital Twins for Manufacturing Systems efficiently.

Teses
1
  • Bruna Felippes Corrêa
  • PROPOSAL OF THE CUBE-4.0 READINESS MODEL FOR ENGINEERING COMPANIES THROUGH DIGITAL TRANSFORMATION CONTEXT

  • Orientador : SANDERSON CESAR MACEDO BARBALHO
  • MEMBROS DA BANCA :
  • CARLOS HUMBERTO LLANOS QUINTERO
  • INA HEINE
  • JONES YUDI MORI ALVES DA SILVA
  • MARIA ELIZETE KUNKEL
  • SANDERSON CESAR MACEDO BARBALHO
  • Data: 16/01/2023

  • Mostrar Resumo
  • Esta tese propõe um novo Modelo de Prontidão, denominado CUBE-4.0, para avaliar o estado actual de prontidão e orientar estratégias de melhoria, de forma inovadora, em empresas (indústrias) de engenharia de qualquer dimensão, tipo e nível de prontidão, no contexto da transformação digital. Foi realizada uma revisão sistemática de literatura e teoria para seleccionar, com um Teste Bibliográfico de Sinonímia (BST) e um Fluxo de Pesquisa específico em 8 etapas (ambos criados pelo autor), informação concreta de 486 estudos relevantes encontrados em 10 bases de dados de renome, considerando 63 modelos de maturidade e prontidão existentes e toda a literatura científica sobre este assunto a nível mundial. Com base nas deficiências dos modelos de maturidade e prontidão existentes e após pré-design e sistematização, o Modelo de Prontidão CUBE-4.0 foi desenvolvido como uma contribuição essencial para este fluxo de investigação. Isto inclui o seu Quadro (dimensões, sub-dimensões, elementos, níveis de prontidão, gráfico de radar, cálculo de pontuação e metodologia de recolha de dados), Questionário e Roteiro. Além disso, este modelo fornece uma metodologia prática e facilmente aplicável, com 3 dimensões (X = Viabilizador Organizacional, Y = Viabilizador Tecnológico, e Z = Viabilizador de Maturidade de Processos), 6 sub-dimensões, e 21 elementos. Além disso, tem uma escala de 0 a 5 para avaliar o nível de prontidão da empresa, definida e estruturada de uma forma sem precedentes, além de considerar, pela primeira vez, a maturidade como um facilitador de "input" para a avaliação da prontidão da empresa, e não como um "output", como em todos os outros modelos existentes. Também foi desenvolvido um "Questionário CUBE-4.0", com base nestes conceitos CUBE-4.0, para recolher dados e sondar empresas de engenharia sobre a sua prontidão para a transformação digital. Finalmente, com um "CUBE-4.0 Roadmap", baseado nos resultados do Questionário CUBE-4.0, este modelo pode também ajudar os conselhos de administração das empresas a orientar estratégias e planear melhorias nas suas empresas nesta Era Industrial 4.0 (I4.0). Após a apresentação de algumas hipóteses dedutivas, um pré-teste com o Questionário CUBE-4.0 e o Roteiro CUBE-4.0 foi aplicado em seis etapas, cujos resultados satisfatórios serão apresentados nesta tese. Em seguida, o Modelo CUBE-4.0 foi revisto e aplicado em três empresas de engenharia de renome, permitindo a sua completa validação, através da utilização de métodos teóricos e práticos. Por último, esta tese apresentará a discussão principal sobre os resultados. Isto inclui a falsidade das hipóteses, concluindo que o Modelo CUBE-4.0 é completo, útil, barato e eficiente, e poderia ajudar as empresas a melhorar a sua prontidão através do contexto da transformação digital.


  • Mostrar Abstract
  • This thesis proposes a new Readiness Model, called CUBE-4.0, to assess the current state of readiness and guide improvement strategies, in an innovative way, in engineering companies (industries) of any size, type, and level of readiness, in the digital transformation context.  A systematic literature and theory review was conducted to select, with a Bibliographic Synonym Test (BST) and a specific 8-Step Search Flow (both created by the author), concrete information from 486 relevant studies found in 10 renowned databases, considering 63 existing maturity and readiness models and the entire scientific literature on this subject worldwide.  Based on the existing maturity and readiness models’ shortcomings and after pre-design and systematization, the CUBE-4.0 Readiness Model was developed as an essential contribution to this research stream. This includes its Framework (dimensions, sub-dimensions, elements, readiness levels, radar chart, score calculation and data collection methodology), Questionnaire and Roadmap. Besides, this model provides a practical and easily applicable methodology, with 3 dimensions (X = Organizational Enabler, Y = Technological Enabler, and Z = Processes Maturity Enabler), 6 sub-dimensions, and 21 elements. Furthermore, it has a scale from 0 to 5 to assess the company readiness level, defined and structured in an unprecedented way, besides considering, for the first time, maturity as an "input" enabler for the company readiness evaluation, and not as an "output" as in all other existing models. Also, a "CUBE-4.0 Questionnaire" was developed, based on these CUBE-4.0 concepts, to collect data and survey engineering firms about their readiness for digital transformation. Finally, with a "CUBE-4.0 Roadmap", based on the CUBE-4.0 Questionnaire results, this model can also help corporate boards to guide strategies and plan improvements in their companies in this Industrial 4.0 (I4.0) Age.  After presenting some deductive hypotheses, a pre-test with the CUBE-4.0 Questionnaire and CUBE-4.0 Roadmap was applied in six steps, whose satisfactory results will be presented in this thesis. Then, the CUBE-4.0 Model was reviewed and applied in three renowned engineering companies, enabling its complete validation, by using theoretical and practical methods. Last, this thesis will present the main discussion about the results. This includes the falsiability of the hypotheses, concluding that CUBE-4.0 Model is complete, useful, inexpensive, and efficient, and could help companies to improve their readiness through the digital transformation context.
2
  • Maria de Fátima Kallynna Bezerra Couras
  • Decomposição Tensorial Aninhada Acoplada aplicada a Sistemas de Comunicação MIMO Duplamente-Polarizado

  • Orientador : JOAO PAULO JAVIDI DA COSTA
  • MEMBROS DA BANCA :
  • JOAO PAULO JAVIDI DA COSTA
  • JOSE ALFREDO RUIZ VARGAS
  • RICARDO ZELENOVSKY
  • WALTER DA CRUZ FREITAS JUNIOR
  • TARCISIO FERREIRA MACIEL
  • Data: 27/06/2023

  • Mostrar Resumo
  • Nos últimos anos, os sistemas MIMO (do inglês, Multiple-Input-MultipleOutput) massivos têm sido objeto de intensa pesquisa devido ao seu grande potencial para fornecer eficiência energética, ganhos de taxa de dados e diversidade através da transmissão e recepção de múltiplas versões do mesmo sinal para multiusuários. No entanto, seus benefícios de desempenho dependem fortemente da estimativa precisa do canal na estação base e da maneira como as matrizes de símbolos são transmitidas. Para modelar e estimar sinais recebidos, a modelagem de canais e a transmissão de informações (matrizes de símbolos) são muito importantes. Ao estimar o canal MIMO, é importante estimar com precisão todos os parâmetros que modelam o canal, como as direções do caminho em azimute e elevação, parâmetros de polarização e amplitude em ambos os lados do link. Para os símbolos transmitidos, é importante estimar as informações recebidas com a maior precisão possível, para tal, na transmissão dos símbolos, na maioria dos casos, usamos codificação espacial, temporal ou de frequência para aumentar a diversidade dos sistemas. Essas codificações geralmente melhoram o desempenho, a confiabilidade dos mesmos e uma estimativa melhor dos sinais recebidos. Neste contexto, nos últimos anos, receptores semi-cegos baseado em tensores tem sido extensivamente estudado para sistemas MIMO. Esses receptores nos permitem uma estimativa melhor do canal e dos símbolos sem qualquer informação a respeito do canal. Em alguns casos, além de estimar o canal, é possível estimar os parâmetros do canal. Esta tese apresenta um modelo de sinais recebidos com base em decomposições tensoriais que combinam uma extensão da codificação MKronST e um tensor de canal de 5-ordem para transmitir os símbolos. A extensão da codificação é baseada na combinação da codificação TST e codificação baseada nos múltiplos produtos de Kronecker das matrizes de símbolos, chamada de codificação TST-MSMKRON. O canal assume um arranjo uniforme retangular (do inglês, uniform rectangular array, URA) no transmissor e no receptor o que permite modelar o canal como um tensor. Mais especificamente, as contribuições teóricas desta tese estão em torno da proposição de novos receptores semicegos para estimar conjuntamente as matrizes de símbolo, os parâmetros de canal e o canal sem o conhecimento a priopri sobre eles. que permite realizar esta estimação semicega é a utilização da codificação TST-MSMKRON para transmitir o sinal. Na primeira parte desta tese, é proposta uma decomposição multidimensional CX para tensores. A decomposição CX é aplicada para a reconstrução de dados. Com base no modelo CX, um algoritmo é proposto para estimar e reconstruir o tensor de dados. Na segunda parte desta tese, a codificação TST-MSMKRON é apresentada para sistemas MIMO massivos, onde é proposto um modelo do sinal recebido que combina um canal de 5-ordem com a codificação TST-MSMKRON. Este sistema nos permite modelar o sinal recebido como uma decomposição Nested-Tucker–(2,3)-PARAFAC. Além disso, os receptores semicegos em duas etapas são propostos para estimar em conjunto os símbolos, o canal e os parâmetros do canal. As condições relacionadas à identificabilidade e a complexidade computacional dos algoritmos propostos também são discutidos em ambas as partes da tese. Em cada parte da tese, são fornecidos resultados de simulações de Monte Carlo para avaliar o desempenho dos algoritmos propostos. Os resultados mostram a eficiência dos algoritmos na reconstrução dos conjuntos de dados e estimativa conjunta dos símbolos, parâmetros de canal e canal do sistema, respectivamente.


  • Mostrar Abstract
  • In recent years, massive Multiple-Input-Multiple-Output (MIMO) systems have been the subject of intense research due to their great potential to provide energy efficiency, data rate gains and diversity through the transmission and reception of multiple versions of the same signal for multiusers. However, its performance benefits depend heavily on the channel estimate at the base station and the way the symbol arrays are transmitted. For modeling and estimating received signals, channel modeling and information transmission (symbol matrices) are very important. In estimating the MIMO channel, it is important to accurately estimate all the parameters that model the channel, such as azimuth and elevation angles, path directions, polarization and amplitude parameters on both sides of the link. For the transmitted symbols it is important to estimate the information received as accurately as possible, for this, in the transmission of the symbols in most cases we use spatial, temporal or frequency coding to increase the diversity of the systems. These codings generally improve the performance, the reliability of the systems and a better estimate of the received signals. In this context, in recent years, semi-blind receivers based on tensor decompositions for MIMO massive systems have been extensively studied. These receivers allow us a better estimate of the channel and symbols without any information about the channel. In some cases, in addition to estimating the channel, it is possible to estimate the channel parameters. This thesis presents received signal model based on tensor decompositions that combine a extension of the MKronST coding and 5th-order channel tensor to transmit the symbols. The coding extension is based on the combination of the tensor space time (TST) coding and the multiple Kronecker product of symbol matrices, called TST-MSMKron coding. The channel assumes a uniform rectangular array (URA) at both, transmitter and receiver which allows us to model the channel as a tensor. More specifically, the theoretical contributions of this thesis are around the proposal of new semi-blind receivers to jointly estimate the symbol matrices, channel and channel parameters without prior knowledge of the channel and channel parameters. What makes this semi-blind estimation possible is the use of the TST-MSMKron coding to transmit the signal. In the first part of this thesis, a multidimensional CX decomposition for tensors is proposed. CX Decomposition is applied to data reconstruction. Based on CX model, one algorithm is proposed to estimate and reconstruct the data tensor. In the second part of this thesis, the TST- MSMKron coding is presented for massive MIMO systems, where a model of the received signal is proposed that combines a 5th-order channel with the TST-MSMKron coding. This system allows us to model the received signal as a coupled-nested-TuckerPARAFAC. In addition, semi-blind receivers in two steps are proposed to jointly estimate the symbols, the channel and the channel parameters. Conditions related to the identifiability and the computational complexity of the proposed algorithms are also discussed in both parts of the thesis. In each part of the thesis, results from Monte Carlo simulations are provided to evaluate the performance of the proposed algorithms. Results show the efficiency of the algorithms in the reconstruction of the datas and joint estimation of the symbols, channel and channel parameters of the system, respectively: In recent years, massive Multiple-Input-Multiple-Output (MIMO) systems have been the subject of intense research due to their great potential to provide energy efficiency, data rate gains and diversity through the transmission and reception of multiple versions of the same signal for multiusers. However, its performance benefits depend heavily on the channel estimate at the base station and the way the symbol arrays are transmitted. For modeling and estimating received signals, channel modeling and information transmission (symbol matrices) are very important. In estimating the MIMO channel, it is important to accurately estimate all the parameters that model the channel, such as azimuth and elevation angles, path directions, polarization and amplitude parameters on both sides of the link. For the transmitted symbols it is important to estimate the information received as accurately as possible, for this, in the transmission of the symbols in most cases we use spatial, temporal or frequency coding to increase the diversity of the systems. These codings generally improve the performance, the reliability of the systems and a better estimate of the received signals. In this context, in recent years, semi-blind receivers based on tensor decompositions for MIMO massive systems have been extensively studied. These receivers allow us a better estimate of the channel and symbols without any information about the channel. In some cases, in addition to estimating the channel, it is possible to estimate the channel parameters. This thesis presents received signal model based on tensor decompositions that combine a extension of the MKronST coding and 5th-order channel tensor to transmit the symbols. The coding extension is based on the combination of the tensor space time (TST) coding and the multiple Kronecker product of symbol matrices, called TST-MSMKron coding. The channel assumes a uniform rectangular array (URA) at both, transmitter and receiver which allows us to model the channel as a tensor. More specifically, the theoretical contributions of this thesis are around the proposal of new semi-blind receivers to jointly estimate the symbol matrices, channel and channel parameters without prior knowledge of the channel and channel parameters. What makes this semi-blind estimation possible is the use of the TST-MSMKron coding to transmit the signal. In the first part of this thesis, a multidimensional CX decomposition for tensors is proposed. CX Decomposition is applied to data reconstruction. Based on CX model, one algorithm is proposed to estimate and reconstruct the data tensor. In the second part of this thesis, the TST- MSMKron coding is presented for massive MIMO systems, where a model of the received signal is proposed that combines a 5th-order channel with the TST-MSMKron coding. This system allows us to model the received signal as a coupled-nested-TuckerPARAFAC. In addition, semi-blind receivers in two steps are proposed to jointly estimate the symbols, the channel and the channel parameters. Conditions related to the identifiability and the computational complexity of the proposed algorithms are also discussed in both parts of the thesis. In each part of the thesis, results from Monte Carlo simulations are provided to evaluate the performance of the proposed algorithms. Results show the efficiency of the algorithms in the reconstruction of the datas and joint estimation of the symbols, channel and channel parameters of the system, respectively

3
  • Marlon Marques Soudré
  • Monitoramento embarcado baseado em GPU para detecção e diagnóstico de falhas em sistemas não lineares variantes no tempo -um estudo de caso de turbina eólica

  • Orientador : CARLOS HUMBERTO LLANOS QUINTERO
  • MEMBROS DA BANCA :
  • ALVARO BERNAL NOROÑA
  • CARLOS HUMBERTO LLANOS QUINTERO
  • EDWARD DAVID MORENO ORDONEZ
  • JONES YUDI MORI ALVES DA SILVA
  • LEANDRO DOS SANTOS COELHO
  • Data: 06/12/2023

  • Mostrar Resumo
  • O monitoramento de sistemas não lineares e variantes no tempo visando detectar e diagnosticar falhas não é uma tarefa trivial, sobretudo quando aplicado a sistemas embarcados e suas restrições. Apesar dos desafios, o desenvolvimento e popularização de tecnologias como Internet of Things (IoT), ferramentas de aprendizagem de máquina e o paradigma de computação na borda (Edge Computing) tem aumentado o interesse no tema. No entanto, ainda são poucos os trabalhos inseridos nesse cenário, havendo um espaço a ser preenchido no que tange a soluções que sejam viáveis de serem embarcadas. Neste sentido, o presente trabalho propõe contribuições baseadas em GPUs no intuito de contribuir para o preenchimento desta lacuna na literatura. Primeiramente, é proposto uma estratégia aplicadas a sistemas embarcados baseados em GPUs para identificação de sistemas não lineares e caixa-preta. Mais precisamente, foi desenvolvido uma estratégia de paralelização do algoritmo Forward Regression Orthogonal Least Squares (FROLS) para seleção de modelos autoregressivos parcimoniosos, lineares e não lineares. Em seguida, são apresentadas soluções para detecção e classificação de falhas, ambas mapeadas em GPUs e baseadas na análise dos parâmetros do modelo identificado, implementadas com ferramentas de gráficos de controle (control-chart) e Máquinas de Vetores de Suporte (SVM), respectivamente. Por fim, as soluções supracitadas foram reunidas, juntamente com a estratégia de estimação recursiva dos parâmetros do modelo dentro de uma janela móvel (SWRLS), a fim de se estabelecer um algoritmo de monitoramento para detecção e diagnóstico de falhas (SWRLS\SVM\FROLS). As soluções se mostraram viáveis quando validadas com dados reais de uma pá de turbina eólica submetida a variação de temperatura e a falhas decorrentes do acúmulo de gelo e formação de trincas em diferentes escalas. Vale ressaltar que este estudo de caso é atual e relevante, combinando as características de um sistema não linear variável no tempo, devido a falhas e fatores ambientais, e atuando no paradigma de computação na borda, essenciais especialmente para instalações offshore. Nesse sentido, o estudo de caso escolhido explora a solução proposta em sua totalidade, mostrando a viabilidade de um monitoramento embarcado baseado em GPU para detecção e diagnóstico de falhas em sistemas não lineares variantes no tempo.  


  • Mostrar Abstract
  • Monitoring non-linear and time-varying systems to detect and diagnose failures is not a trivial task, especially when applied to embedded systems and their restrictions. Despite the challenges, the development and popularization of technologies such as the Internet of Things (IoT), machine learning tools and the Edge Computing paradigm has increased interest in the topic. However, there are still few works included in this scenario, with a space to be filled in terms of solutions that are viable to be implemented. In this sense, the present work proposes contributions based on GPUs in order to contribute to filling this gap in the literature. Firstly, a strategy applied to embedded systems based on GPUs is proposed to identify non-linear and black-box systems. More precisely, a parallelization strategy for the Forward Regression Orthogonal Least Squares (FROLS) algorithm was developed to select parsimonious, linear and non-linear autoregressive models. Then, solutions for fault detection and classification are presented, both mapped onto GPUs and based on the analysis of the parameters of the identified model, implemented with control-chart tools and Support Vector Machines (SVM), respectively. . Finally, the aforementioned solutions were brought together, together with the recursive estimation strategy of the model parameters within a moving window (SWRLS), in order to establish a monitoring algorithm for fault detection and diagnosis (SWRLS\SVM\FROLS ). The solutions proved to be viable when validated with real data from a wind turbine blade subjected to temperature variation and failures resulting from ice accumulation and crack formation at different scales. It is worth highlighting that this case study is current and relevant, combining the characteristics of a time-varying non-linear system, due to failures and environmental factors, and acting in the edge computing paradigm, essential especially for offshore installations. In this sense, the chosen case study explores the proposed solution in its entirety, showing the feasibility of GPU-based embedded monitoring for detecting and diagnosing faults in time-varying non-linear systems.

2022
Dissertações
1
  • LAIS SOARES VIEIRA
  • Produção e caracterização de suportes cerâmicos porosos de hidroxiapatita dopados com CoFe2O4

  • Orientador : ALYSSON MARTINS ALMEIDA SILVA
  • MEMBROS DA BANCA :
  • ALYSSON MARTINS ALMEIDA SILVA
  • DANIEL MONTEIRO ROSA
  • EDSON PAULO DA SILVA
  • PRISCILA LEMES
  • Data: 29/08/2022

  • Mostrar Resumo
  • O objetivo geral deste trabalho é produzir suportes cerâmicos a base de hidroxiapatita dopados com ferrita de cobalto e avaliar a influência do elemento dopante nas características microestruturais e na estrutura de poros do mesmo. Os suportes cerâmicos foram produzidos pelo processo de freeze casting e apresentaram uma matriz de poros interconectados e unidirecionais. A concentração de sólidos para a produção dos suportes cerâmicos via freeze casting foi de 12,5% vol. Foi utilizado canfeno como solvente. A ferrita de cobalto foi produzida via sol-gel e posteriormente foi utilizada na dopagem da hidroxiapatita em concentrações de 2, 6 e 10 % vol. A taxa de resfriamento, o teor de dopante, a temperatura de sinterização e a resistência à compressão dos suportes cerâmicos foram analisados. A porosidade das amostras foi caracterizada pelo Princípio de Arquimedes. Nas análises de difração de raios X foi possível observar a formação da fase TCP-β para a hidroxiapatita pura e concentrações mais baixas de ferrita de cobalto. Imagens de MEV mostraram que concentrações mais altas de ferrita de cobalto favoreceram o crescimento dos poros. A ferrita de cobalto contribuiu para uma maior densificação do material elevando a resistência à compressão de 0.64 MPa para 2.07 MPa em suportes resfriados a 35 °C e de 0.85 MPa para 2.50 Mpa em suportes resfriados em nitrogênio líquido.


  • Mostrar Abstract
  • The general objective of this work is to produce ceramic supports based on hydroxyapatite doped with cobalt ferrite and to evaluate the influence of the dopant element on its microstructural characteristics and its porous structure. The ceramic supports were produced by freeze-casting process which created a matrix of interconnected and unidirectional pores. The solids concentration used for the production of the ceramic supports, utilizing freeze-casting was 12.5% vol. Camphene was used as a solvent. Cobalt ferrite was produced using sol-gel and was later used in the doping of hydroxyapatite at 2, 6 and 10% vol. The cooling rate, the dopant content, the sintering temperature and the compressive strength of the ceramic supports were analyzed.. The porosity was measured by the Architect's Principle.Using the X-ray diffraction analysis it was possible to observe the formation of TCP-β for pure hydroxyapatite and under lower conditions of cobalt ferrite. SEM images showed that higher concentrations of cobalt ferrite favored pore growth. Cobalt ferrite contributed to a greater densification of the material, raising the compressive strength from 0.64 MPa to 2.07 MPa in supports cooled to 35 °C and from 0.85 MPa to 2.50 MPa in supports cooled in liquid nitrogen

2
  • MARIO ANDRÉS PASTRANA TRIANA
  • CONTROLE BASEADO EM COMPORTAMENTO APLICADO A ROBÓTICA MÓVEL USANDO HARDWARE RECONFIGURÁVEL

  • Orientador : DANIEL MAURICIO MUNOZ ARBOLEDA
  • MEMBROS DA BANCA :
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • CARLOS HUMBERTO LLANOS QUINTERO
  • JONES YUDI MORI ALVES DA SILVA
  • LEANDRO DOS SANTOS COELHO
  • Data: 15/09/2022

  • Mostrar Resumo
  • A navegação de robôs moveis é uma área de pesquisa com diferentes desafios tecnológicos, desde desenvolvimento mecânico, sensoriamento, até em termos de processamento computacional. Em particular, o controle de robôs móveis envolve sistemas complexos que para ser modelados é necessário ter conhecimentos nas áreas correlatas ao controle.
     
    A metodologia de aprendizagem por demonstração permite desenhar  controladores mediante a imitação de comportamentos. Esta área esta tomando força devido à capacidade de solucionar problemas complexos de controle de robôs e às facilidades que a metodologia apresenta. Entretanto, a aplicação desta metodologia requer sistemas embarcados com boa capacidade de processamento e baixo consumo energético. Nesse sentido, poucas pesquisas têm sido desenvolvidas visando explorar soluções em hardware no intuito de acelerar os algoritmos envolvidos no processo de treinamento.
     
    O presente trabalho descreve o desenvolvimento da metodologia de aprendizagem por demonstração embarcada em hardware reconfigurável aplicado a robótica móvel. Para o processo de aprendizagem foi usada uma rede neural de camada simples com capacidade de adaptação e para o treinamento da mesma foi usado o algoritmo de otimização por enxame de partículas. A pesquisa inclui o desenvolvimento de uma plataforma robótica móvel chamada Maria. Três micro-comportamentos foram ensinados (3 cenários diferentes os quais são, avançar para frente, girar no sentido horário e girar no sentido anti-horário) e 16 experimentos foram realizados para cada um, afim de obter dados estatísticos de cada comportamento ensinado. Além disto um protocolo experimental foi proposto para testar o robô em cenários desconhecidos.
     
    O erro de trajetória para o micro-comportamento 2 foi de 4830cm², com um 100% de sucesso, do micro-comportamento 3 foi de 6872.4cm², com um 75% de sucesso e 25% de falhas, e o erro da distancia acumulada para o micro-Comportamento 1 foi de 202cm, com um 81.25% de sucesso e um 18.75% de falhas.

  • Mostrar Abstract
  • The navigation of mobile robots is a research area with different technological challenges, from mechanical development, sensing, and even in terms of computational processing. In particular, the control of mobile robots involves complex systems that, to be modeled, it is necessary to have experience in control systems.
     
    The learning from demonstration methodology allows designing controllers by imitating behaviors. This area is gaining strength because of its ability to solve complex control problems and its easy implementation. However, this methodology requires the development of embedded systems with good computational performance and low energy consumption. In this sense, the community has not conducted research projects to explore reconfigurable hardware to accelerate the algorithms involved in the training process.
     
    This work describes the development of the learning from demonstration methodology using embedded hardware applied to mobile robotics. A single-layer neural network with adaptiveness was used along with the particle swarm optimization algorithm were used for the learning process. This research also includes the development of a mobile robotic platform, called Maria. Three micro-behaviors were taught (move forward, rotate clockwise, and rotate counter-clockwise) and 16 experiments were performed for each one, in order to obtain statistical results for each behavior. In addition, an experimental protocol was performed to test the robot in unknown scenarios, collecting more statistical results.
     
    The trajectory error of the robot for the micro-behavior 2 was 4830cm², with a 100% success, for the micro-behavior 3 was 6872.4cm², with a 75% success and 25% failure, and the accumulated distance error for the micro-Behavior 1 was $202cm$, with an 81.25% success and an 18.75 % failures.
3
  • Jacó Cirino Gomes
  • UMA ARQUITETURA DE FEW-SHOT LEARNING PARA CLASSIFICAÇÃO DE INSETOS EM AGRICULTURA USANDO POUCAS AMOSTRAS

  • Orientador : DIBIO LEANDRO BORGES
  • MEMBROS DA BANCA :
  • DIBIO LEANDRO BORGES
  • FABRIZZIO ALPHONSUS ALVES DE MELO NUNES SOARES
  • FLÁVIO LEMES FERNANDES
  • JOSE MAURICIO SANTOS TORRES DA MOTTA
  • Data: 16/09/2022

  • Mostrar Resumo
  • A capacidade de aprender com poucas amostras visuais, é um dos principais desafios no campo da aprendizagem de máquinas. A aprendizagem profunda tem sido bem sucedida em aplicações envolvendo grandes conjuntos de dados, mas os modelos tendem a reduzir drasticamente seu desempenho quando lidam com conjuntos de dados pequenos. A aprendizagem Few-shot Learning (FSL), entretanto, é uma abordagem de aprendizagem recente e mais adequada para lidar com poucas amostras. No entanto, as soluções atuais ainda buscam por aperfeiçoamentos nos processos de extração de recursos discriminatórios de imagens para diferenciá-los efetivamente. Neste trabalho, conduzimos um estudo sobre a FSL baseada em métrica para fornecer um modelo aprimorado de classificação. Iniciando com uma revisão da literatura, distinguimos os principais modelos de última geração, e descrevemos as principais abordagens com aplicação na classificação
    de insetos. Exploramos a utilização das divergências de Bregman como métodos de similaridade em FSL e investigamos as condições paramétricas de treinamento para minimização dos erros de classificação durante a etapa de teste. O modelo proposto nesse trabalho inclui dois módulos principais: 1) um mecanismo de extração e fusão de recursos de baixo, médio e alto nı́veis de imagem, com um método exclusivo de fusão desses recursos (FMC) para a geração de vetores representativos ricos em informações de classes, e 2) a Entropia relativa como uma alternativa promissora para lidar com a comparação de vetores gerados pela FMC em tarefas com quantidade mı́nima de dados. O modelo foi testado usando dois conjuntos de dados desafiadores de insetos da agricultura propostos neste trabalho: o primeiro contendo insetos separados por estágio de maturidade, e
    o segundo abrangendo pragas e insetos benéficos da cultura do milho. Uma ampla cadeia experimental foi realizada para análise de divergências e validação do modelo proposto. A validação foi realizada comparando-se os nossos resultados aos de redes neurais convolucionais consolidadas na literatura. Os resultados mostraram que o modelo apresentado melhorou a acurácia em até 3.62% e 2% em tarefas de classificação de 1-shot e 5shot respectivamente, em relação ao modelo tradicional de extração de recursos globais de imagens. Além disso, o modelo superou os resultados das redes ResNet50, VGG16 e Mobilenetv2, com a vantagem da redução em até 99% da quantidade de parâmetros de aprendizagem. A aprendizagem few-shot é uma abordagem rele-
    vante para pesquisas relacionadas a classificação de insetos em agricultura, servindo como uma alternativa para o desenvolvimento de soluções rápidas e precisas para aplicação em campo.


  • Mostrar Abstract
  • The ability to learn with few visual samples is one of the main challenges in the field of machine learning. Deep learning has been successful in large data sets applications, but models tend to drastically reduce their performance when dealing with small datasets. Few-shot Learning (FSL), however, is a recent and suitable learning approach to deal with few samples. However, current solutions still seek improvements in the image feature extraction processes to differentiate them effectively. In this work, we conducted a study to provide an improved metric-based FSL classification model. Starting with a literature review, we distinguish the main state-of-the-art models and describe the main approaches with application in insect classification. We explored
    the use of Bregman divergences as similarity methods in FSL and investigated the parametric training conditions to minimize classification errors during the test time. The proposed model includes two main modules: 1) a low, middle, and high-level image feature extraction and fusion mechanism (FMC), with an exclusive method of merging these features to generate information-rich representative vectors of classes, and 2) the relative entropy as a promising alternative to deal with the comparison of vectors generated by the FMC in tasks with a few data. The model was tested using two challenging agricultural insect datasets proposed in this work: the first containing insect pests separated by stages of maturity, and the second covering pests and beneficial insects of the maize crops. A wide experimental chain was carried out for the divergence analysis and validation of the proposed model. Validation was performed by comparing our results to those of convolutional neural networks consolidated in the literature. The results showed that the presented model improved the accuracy by up to 3.62% and 2% in 1-shot and 5shot classification tasks, respectively, compared to the traditional global image feature extraction model. Furthermore, the model outperformed the results of the ResNet50, VGG16, and Mobilenetv2 networks, with the advantage of reducing the number of learnable parameters by up to 99%. Few-shot learning is a relevant approach for research related to insect classification in agriculture, serving as an
    alternative for developing fast and accurate solutions for application in the crop field.

4
  • Antonio Henrique Duarte
  • ANÁLISE DO CUSTO DO CICLO DE VIDA APLICADO AO SETOR DE DEFESA: ESTUDO DE CASO MÚLTIPLO PARA IDENTIFICAR O USO DO CCV NOS PROGRAMAS ESTRATÉGICOS DO EXÉRCITO

  • Orientador : SANDERSON CESAR MACEDO BARBALHO
  • MEMBROS DA BANCA :
  • ALENCAR SOARES BRAVO
  • CARLOS HUMBERTO LLANOS QUINTERO
  • JOSÉ LUÍS GARCIA HERMOSILLA
  • SANDERSON CESAR MACEDO BARBALHO
  • Data: 25/11/2022

  • Mostrar Resumo
  • O custo do ciclo de vida (CCV) é considerado internacionalmente como um dos melhores instrumento para avaliação de investimentos em equipamentos militares, pois segundo seus preceitos holísticos, estima todos os custos associados ao produto/sistema em seus estágios de conceito, desenvolvimento, produção, utilização, suporte e desativação. Entretanto, apesar do reconhecimento, sua aplicação ainda é pouco estudada. Esta dissertação, buscando entender tais motivações e contribuir com a base de conhecimento existente sobre o tema, realizou inicialmente um estudo bibliométrico quantitativo e qualitativo com dados das bases Scopus e WoS, identificando o estágio atual das pesquisas relacionadas ao tema, com ênfase no setor de defesa a nível mundial. Onde revelou que apesar do conhecimento ainda ser incipiente no mundo inteiro, existem alguns poucos países desenvolvidos no tema, com aplicação prática em suas forças armadas, que o CCV não é aplicado somente na fase inicial de desenvolvimento ou aquisição de um produto/sistema, para a seleção da melhor proposta de investimento, mas também tem forte aplicação no desenvolvimento integrado, para garantir a inclusão dos fatores que irão propiciar a competitividade, confiabilidade, operação a baixo custo e sustentabilidade durante todo o ciclo de vida dos futuros produtos/sistemas militares. Por fim, para aprofundar o estudo sobre os achados da pesquisa bibliométrica, foi realizado um estudo de caso com seis Programas Estratégicos do Exército, que identificou uma repetição dos dados apresentados no contexto mundial de forma equivalente à posição que o Brasil figurou na pesquisa internacional. Entretanto a aplicação do estudo de caso permitiu aumentar a compreensão sobre os possíveis fatos que levam a incipiência da aplicação do CCV para os Programas Estratégicos e que por indução, podem suscitar a repetição a níveis mundiais, como: a complexidade do conhecimento e realização do cálculo do CCV; a necessidade do contínuo investimento em capacitação e a necessidade de estruturas específicas com pessoal especializado para apoio o cálculo do CCV.


  • Mostrar Abstract
  • The life cycle cost (LCC) is considered internationally as one of the best instruments for evaluating investments in military equipment, because according to its holistic precepts, it estimates all the costs associated with the product/system in its stages of concept, development, production, usage, support and deactivation. However, despite the recognition, its application is still poorly studied. This dissertation, seeking to understand such motivations and contribute to the existing knowledge base on the subject, initially carried out a quantitative and qualitative bibliometric study with data from Scopus and WoS databases, identifying the current stage of research related to the theme, with emphasis on the sector of defense worldwide. It revealed that although knowledge is still incipient worldwide, there are a few developed countries on the subject, with practical application in their armed forces, that the CCV is not applied only in the initial phase of development or acquisition of a product/system, to the selection of the best investment proposal, but also has strong application in integrated development, to ensure the inclusion of factors that will provide competitiveness, reliability, low cost operation and sustainability throughout the life cycle of future military products/systems. Finally, to deepen the study on the findings of the bibliometric research, a case study was carried out with six Strategic Programs of the Army, which identified a repetition of the data presented in the world context in a way equivalent to the position that Brazil figured in the international research. However, the application of the case study allowed to increase the understanding of the possible facts that lead to the incipient application of the CCV to the Strategic Programs and that, by induction, can cause repetition at world levels, such as: the complexity of knowledge and calculation of the CCV; the need for continuous investment in training and the need for specific structures with specialized personnel to support the calculation of the CCV.

Teses
1
  • Ana Paula Gonçalves Soares de Almeida
  • UMA AVALIAÇÃO EXPLORATÓRIA DA FUSÃO DE REDE NEURAL PROFUNDA MULTISTREAM: PROJETO E APLICAÇÕES

  • Orientador : FLAVIO DE BARROS VIDAL
  • MEMBROS DA BANCA :
  • FLAVIO DE BARROS VIDAL
  • ALEXANDRE RICARDO SOARES ROMARIZ
  • LUCIANO REBOUÇAS DE OLIVEIRA
  • RICARDO DA SILVA TORRES
  • Data: 01/07/2022

  • Mostrar Resumo
  • Os métodos de aprendizado de máquina dependem muito de quão bom o extrator de características selecionado pode representar os dados brutos de entrada. Atualmente, temos mais dados e capacidade computacional para lidar com isso. Com as Redes Neurais Convolucionais temos uma rede que é mais fácil de treinar e generaliza muito melhor do que o habitual. Há, no entanto, uma boa quantidade de características que são essenciais, mas são descartadas nesse processo, mesmo quando se utiliza uma CNN poderosa. As Redes Neurais Convolucionais Multistream podem processar mais de uma entrada usando fluxos separados e são projetadas usando qualquer arquitetura CNN clássica como base. O uso de M-CNNs gera mais informação de características e, assim, melhora o resultado geral. Este trabalho explorou arquiteturas M-CNNs e como os sinais de fluxo se comportam durante o processamento, chegando a uma nova estratégia de fusão cruzada de M-CNNs. O novo módulo é validado, inicialmente, com um conjunto de dados padrão, CIFAR-10, e comparado com as redes correspondentes (single-stream CNN e late fusion M-CNN). Os primeiros resultados neste cenário mostraram que nosso modelo adaptado superou todos os modelos mencionados acima em pelo menos 28% em comparação com todos os modelos testados. Expandindo o teste, usamos a base de antigas redes estado-da-arte na classificação de imagens e conjuntos de dados adicionais para investigar se a técnica pode colocar essas estruturas de volta ao jogo. No conjunto de dados NORB, mostramos que podemos aumentar a precisão em até 63, 21% quando comparado às estruturas básicas de M-CNNs. Variando nossas aplicações, o mAP@75 do conjunto de dados de detecção e reconhecimento de objetos BDD100K melhorou em 50, 16% em comparação com sua versão não adaptada, mesmo quando treinado do zero. A fusão proposta demonstrou robustez e estabilidade, mesmo quando distratores foram usados como entradas. Embora nosso objetivo seja reutilizar arquiteturas estado-da-arte anteriores com poucas modificações, também expomos as desvantagens de nossa estratégia explorada.


  • Mostrar Abstract
  • Machine-learning methods depend heavily on how well the selected feature extractor can represent the raw input data. Nowadays, we have more data and computational capacity to deal with it. With Convolutional Neural Networks, we have a network that is easier to train and generalizes much better than usual. However, a good amount of essential features are discarded in this process, even when using a powerful CNN. Multistream Convolutional Neural Networks can process more than one input using separate streams and are designed using any classical CNN architecture as a base. The use of M-CNNs generates more features and thus, improves the overall outcome. This work explored M-CNNs architectures and how the stream signals behave during the processing, coming up with a novel M-CNN cross-fusion strategy. The new module is first validated with a standard dataset, CIFAR-10, and compared with the corresponding networks (single-stream CNN and late fusion M-CNN). Early results on this scenario showed that our adapted model outperformed all the abovementioned models by at least 28% compared to all tested models. Expanding the test, we used the backbones of former state-of-the-art networks on image classification and additional datasets to investigate if the technique can put these designs back in the game. On the NORB dataset, we showed that we could increase accuracy up to 63.21% compared to basic M-CNNs structures. Varying our applications, the mAP@75 of the BDD100K multi-object detection and recognition dataset improved by 50.16% compared to its unadapted version, even when trained from scratch. The proposed fusion demonstrated robustness and stability, even when distractors were used as inputs. While our goal is to reuse previous state-of-the-art architectures with few modifications, we also expose the disadvantages of our explored strategy.

2
  • Ana Paula Gonçalves Soares de Almeida
  • UMA AVALIAÇÃO EXPLORATÓRIA DA FUSÃO DE REDE NEURAL PROFUNDA MULTISTREAM: PROJETO E APLICAÇÕES

  • Orientador : FLAVIO DE BARROS VIDAL
  • MEMBROS DA BANCA :
  • ALEXANDRE RICARDO SOARES ROMARIZ
  • CAMILO CHANG DOREA
  • FLAVIO DE BARROS VIDAL
  • LUCIANO REBOUÇAS DE OLIVEIRA
  • RICARDO DA SILVA TORRES
  • Data: 01/07/2022

  • Mostrar Resumo
  • Os métodos de aprendizado de máquina dependem muito de quão bom o extrator de características selecionado pode representar os dados brutos de entrada. Atualmente, temos mais dados e capacidade computacional para lidar com isso. Com as Redes Neurais Convolucionais temos uma rede que é mais fácil de treinar e generaliza muito melhor do que o habitual. Há, no entanto, uma boa quantidade de características que são essenciais, mas são descartadas nesse processo, mesmo quando se utiliza uma CNN poderosa. As Redes Neurais Convolucionais Multistream podem processar mais de uma entrada usando fluxos separados e são projetadas usando qualquer arquitetura CNN clássica como base. O uso de M-CNNs gera mais informação de características e, assim, melhora o resultado geral. Este trabalho explorou arquiteturas M-CNNs e como os sinais de fluxo se comportam durante o processamento, chegando a uma nova estratégia de fusão cruzada de M-CNNs. O novo módulo é validado, inicialmente, com um conjunto de dados padrão, CIFAR-10, e comparado com as redes correspondentes (single-stream CNN e late fusion M-CNN). Os primeiros resultados neste cenário mostraram que nosso modelo adaptado superou todos os modelos mencionados acima em pelo menos 28% em comparação com todos os modelos testados. Expandindo o teste, usamos a base de antigas redes estado-da-arte na classificação de imagens e conjuntos de dados adicionais para investigar se a técnica pode colocar essas estruturas de volta ao jogo. No conjunto de dados NORB, mostramos que podemos aumentar a precisão em até 63, 21% quando comparado às estruturas básicas de M-CNNs. Variando nossas aplicações, o mAP@75 do conjunto de dados de detecção e reconhecimento de objetos BDD100K melhorou em 50, 16% em comparação com sua versão não adaptada, mesmo quando treinado do zero. A fusão proposta demonstrou robustez e estabilidade, mesmo quando distratores foram usados como entradas. Embora nosso objetivo seja reutilizar arquiteturas estado-da-arte anteriores com poucas modificações, também expomos as desvantagens de nossa estratégia explorada.


  • Mostrar Abstract
  • Machine-learning methods depend heavily on how well the selected feature extractor can represent the raw input data. Nowadays, we have more data and computational capacity to deal with it. With Convolutional Neural Networks, we have a network that is easier to train and generalizes much better than usual. However, a good amount of essential features are discarded in this process, even when using a powerful CNN. Multistream Convolutional Neural Networks can process more than one input using separate streams and are designed using any classical CNN architecture as a base. The use of M-CNNs generates more features and thus, improves the overall outcome. This work explored M-CNNs architectures and how the stream signals behave during the processing, coming up with a novel M-CNN cross-fusion strategy. The new module is first validated with a standard dataset, CIFAR-10, and compared with the corresponding networks (single-stream CNN and late fusion M-CNN). Early results on this scenario showed that our adapted model outperformed all the abovementioned models by at least 28% compared to all tested models. Expanding the test, we used the backbones of former state-of-the-art networks on image classification and additional datasets to investigate if the technique can put these designs back in the game. On the NORB dataset, we showed that we could increase accuracy up to 63.21% compared to basic M-CNNs structures. Varying our applications, the mAP@75 of the BDD100K multi-object detection and recognition dataset improved by 50.16% compared to its unadapted version, even when trained from scratch. The proposed fusion demonstrated robustness and stability, even when distractors were used as inputs. While our goal is to reuse previous state-of-the-art architectures with few modifications, we also expose the disadvantages of our explored strategy.

3
  • Gustavo Silva Vaz Gontijo
  • Simulação de cone de água e cone de gás em poços de petróleo horizontais e verticais usando o Método dos Elementos de Contorno

  • Orientador : EUGENIO LIBORIO FEITOSA FORTALEZA
  • MEMBROS DA BANCA :
  • ANDRES FELIPE GALVIS RODRIGUEZ
  • ANTONIO PIRATELLI FILHO
  • EUGENIO LIBORIO FEITOSA FORTALEZA
  • LUCAS SILVEIRA CAMPOS
  • MANOEL PORFIRIO CORDAO NETO
  • Data: 19/08/2022

  • Mostrar Resumo
  • Este trabalho apresenta a aplicação do Método dos Elementos de Contorno no desenvolvimento de simuladores para o estudo dos fenômenos dos cones de água e de gás em poços de petróleo horizontais e verticais. O escopo é a modelagem numérica bidimensional e axissimétrica dos fenômenos utilizando o Método dos Elementos de Contorno com sub-regiões e interface entre os fluidos modelada como uma fronteira móvel. Este texto traz uma revisão acerca destes fenômenos e de seu impacto na indústria de petróleo, de forma a situar o leitor sobre a motivação para a escolha da aplicação. São utilizados dois modelos de escoamento potencial, monofásico e bifásico. Um terceiro modelo, de escoamento difusivo monofásico, também é aplicado. Além desses, são adotados modelos monofásico e bifásico para escoamento potencial em domínios axissimétricos. Todo o tratamento matemático envolvido na dedução das equações governantes dos modelos é apresentado. Também estão presentes os desenvolvimentos matemáticos de diversas formulações do Método dos Elementos de Contorno. São elas a formulação para problemas potenciais bidimensionais, a formulação de Reciprocidade Dual para problemas regidos pela equação da difusividade em domínio bidimensional, a formulação para problemas potenciais em domínio tridimensional axissimétrico, e a formulação de sub-regiões, para problemas sobre domínios homogêneos por partes. Uma alternativa na modelagem do poço de petróleo horizontal em domínio bidimensional é proposta, utilizando um conjunto de sumidouros pontuais para representar seu perímetro. Esta abordagem permite analisar de forma satisfatória o comportamento da interface entre fluidos, mesmo depois que ela já tenha tocado o poço. Os aspectos principais da implementação dos simuladores são documentados de forma a permitir a utilização deste texto como consulta para implementações semelhantes. A determinação e aplicação das condições de contorno para todos os modelos, incluindo as condições de compatibilidade e equilíbrio na interface entre fluidos, são apresentadas. Os simuladores propostos foram desenvolvidos e validados em comparação a resultados analíticos, numéricos e experimentais.


  • Mostrar Abstract
  • This thesis presents the application of the Boundary Element Method in the development of simulators for the study of water and gas coning phenomena in horizontal and vertical oil wells. The scope is the two-dimensional and axisymmetric numerical modeling of the phenomena using the Boundary Element Method with sub-regions and interface between fluids modeled as a moving boundary. This text provides a review about these phenomena and their impact on the petroleum industry, in order to situate the reader on the motivation for the choice of the application. Two potential flow models are used, single-phase and two-phase. A third model, single-phase diffusive flow, is also applied. In addition to these, single-phase and two-phase models are adopted for potential flow in axisymmetric domains. All the mathematical treatment involved in the deduction of the governing equations of the models is presented. The mathematical developments of several formulations of the Boundary Element Method are also presented. These are the formulation for two-dimensional potential problems, the Dual Reciprocity formulation for problems governed by the diffusivity equation in a two-dimensional domain, the formulation for potential problems in a three-dimensional axisymmetric domain, and the subregion formulation, for problems over piecewise homogeneous domains. An alternative in modeling the horizontal oil well in two-dimensional domain is proposed, using a set of point sinks to represent its perimeter. This approach allows satisfactory analysis of the behavior of the fluid interface, even after it has already touched the well. The main aspects of the simulators implementation are documented in a way that allows this text to be used as a reference for similar implementations. The determination and application of the boundary conditions for all models, including the compatibility and equilibrium conditions at the fluid interface, are presented. The proposed simulators have been developed and validated against analytical, numerical, and experimental results

4
  • Ahmed Abdelfattah Saleh Sherif
  • Resumidor de Texto Independente de Idioma e Cubo Auto-Organizado Profundo 

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • DANIEL OLIVEIRA CAJUEIRO
  • LI WEIGANG
  • PAULO CESAR GUERREIRO DA COSTA
  • PENG WEI
  • Data: 01/12/2022

  • Mostrar Resumo
  • O rápido desenvolvimento da Internet e o crescimento exponencial de dados em texto na web trouxe desafios consideráveis para tarefas relacionadas ao gerenciamento de texto, classificação e recuperação de informações. Nesta tese, propomos dois novos modelos independents de domínio, com o objetivo de melhorar o desempenho da generalização nas áreas de Processamento de Linguagem Natural (NLP) e Deep Learning (DL), para enfrentar os desafios impostos pelo grande crescimento de dados e a necessidade de extrair informação adequada e melhorar a inferência de conhecimento. Ambos os modelos adotam uma abordagem direta, porém eficiente, que depende da extração de características intrínsecas nos dados modelados, a fim de realizar sua tarefa pretendida de forma totalmente independente do domínio. A estratégia de avaliação de desempenho aplicada nesta tese visa testar o modelo em um conjunto de dados de referência e então comparar os resultados obtidos com os modelos padrão existentes. Além disso, os modelos propostos são testados contra modelos de última geração apresentados na literature, para o mesmo conjunto de dados de referência. No domínio da NLP, a maioria das técnicas de resumo de texto na literatura dependem, de uma forma ou de outra, de léxicos pré-estruturados dependentes da linguagem, bancos de dados, marcadores (taggers) e/ou parsers. Tais técnicas requerem um conhecimento prévio da linguagem do texto que está sendo resumido. Nesta tese, propomos uma nova ferramenta de resumo, UnB Language Independent Text Summarizer (UnB-LITS), que é capaz de resumir um texto de maneira independente do idioma. O modelo proposto baseia-se em características intrínsecas do texto que está sendo resumido e não de seu idioma e, portanto, elimina a necessidade de léxicos, bancos de dados, e marcadores ou parsers que dependem do idioma. Dentro dessa ferramenta, desenvolvemos uma forma inovadora de codificar as formas dos elementos do texto (palavras, n-grams, frases e parágrafos), além de propor algoritmos independentes de linguagem, capazes de normalizar palavras e performar derivações relativas ou lematização. Os algoritmos propostos e sua rotina Shape-Coding permitem que a ferramenta UnB-LITS extraia características intrínsecas dos elementos do documento e os pontue estatisticamente para obter um resumo extrativo representativo independente da linguagem do documento. O modelo proposto foi aplicado em diferentes conjuntos de dados referência, em inglês e português, e os resultados foram comparados com doze abordagens consideradas de ponta pela literatura recente. Além disso, o modelo foi aplicado em conjuntos de dados de notícias em francês e espanhol, e os resultados foram comparados aos obtidos por ferramentas comerciais padrão. O UnB-LITS apresentou uma melhor performance do que todas as abordagens de última geração, bem como quando comparado às outras ferramentas comerciais nos quatro idiomas, mantendo a sua natureza independente à linguagem. Por outro lado, a tarefa de classificação multidimensional (MDC) pode ser considerada a descrição mais abrangente de todas as tarefas de classificação, pois une vários espaços de classe e seus vários membros de classe em um único problema de classificação composta. Os desafios no MDC surgem das possíveis dependências de classe em diferentes espaços. E também do desequilíbrio de rótulos em conjuntos de dados de treinamento devido à falta de todas as combinações possíveis. Nesta tese, propomos um classificador de aprendizado profundo MDC que conta com uma natureza simples mas eficiente, chamado “Deep Self-Organizing Cube” ou “DSOC” que pode modelar dependências entre classes, enquanto consolida sua capacidade de classificar combinações raras de rótulos. O DSOC é formado por dois componentes n-dimensionais: o classificador de hipercubo (hypercube) e as múltiplas redes neurais DSOC conectadas ao hipercubo. O componente de múltiplas redes neurais é responsável pela seleção de recursos e segregação de classes, enquanto o classificador hipercubo é responsável por criar a semântica entre vários espaços de classe e acomodar o modelo para classificação de amostras raras. O DSOC é um algoritmo de aprendizado de várias saídas que classifica amostras com sucesso em todos os espaços de classe, de maneira simultanea. Para desafiar o modelo DSOC proposto, realizamos uma avaliação em dezessete conjuntos de dados de referência nos quatro tipos de tarefas de classificação: binário, multiclasse, multi-rótulo e multidimensional. Os resultados obtidos foram comparados com quatro classificadores padrão e oito abordagens competitivas de última geração relatadas na literatura. O DSOC alcançou desempenho superior em relação aos classificadores padrão, bem como as abordagens de última geração em todas as quatro tarefas de classificação. Além disso, em termos de métricas de precisão exata (Exact Match), o DSOC performou melhor do que todas as abordagens de última geração em 77,8% dos casos, o que reflete a capacidade superior do DSOC de modelar dependências e classificar, com sucesso, as amostras raras em todas as dimensões de maneira simultanea.


  • Mostrar Abstract
  • The rapid development of the Internet and the massive exponential growth in web textual data has brought considerable challenges to tasks related to text management, classification and information retrieval. In this thesis, we propose two novel domain agnostic models, aiming at improving the generalization performance in the fields of Natural Language Processing (NLP) and Deep Learning (DL), to address the challenges imposed by the massive growth in data and the need for proper information retrieval and knowledge inference. Both models adopt a straightforward, yet efficient, approaches that depend on extracting intrinsic features in the modeled data, in order to perform their intended task in a totally domain agnostic manner.  The performance evaluation strategy applied in this thesis aims at testing the model on benchmark dataset and then compare the obtained results against those obtained by the standard models. Moreover, the proposed models are challenged against state-of-the-art models presented in literature for the same benchmark dataset. In NLP domain, the majority of text summarization techniques in literature depend, in one way or another, on language dependent pre-structured lexicons, databases, taggers and/or parsers. Such techniques require a prior knowledge of the language of the text being summarized. In this thesis, we propose a novel extractive text summarization tool, UnB Language Independent Text Summarizer (UnB-LITS), which is capable of performing text summarization in a language agnostic manner. The proposed model depends on intrinsic characteristics of the text being summarized rather than its language and thus eliminates the need for language dependent lexicons, databases, taggers or parsers. Within this tool, we develop an innovative way of coding the shapes of text elements (words, n-grams, sentences and paragraphs), in addition to proposing language independent algorithms that are capable of normalizing words and performing relative stemming or lemmatization. The proposed algorithms and its Shape-Coding routine enable the UnB-LITS tool to extract intrinsic features of document elements and score them statistically to extract a representative summary independent of the document language. The proposed model was applied on an English and Portuguese benchmark datasets, and the results were compared to twelve state-of-the-art approaches presented in recent literature. Moreover, the model was applied on French and Spanish news datasets, and the results were compared to those obtained by standard commercial summarization tools. UnB-LITS has outer performed all the state-of-the-art approaches as well as the commercial tools in all four languages while maintaining its language agnostic nature. On the other hand, Multi-dimensional classification (MDC) task can be considered the most comprehensive description of all classifications tasks, as it joins multiple class spaces and their multiple class members into a single compound classification problem. The challenges in MDC arise from the possible class dependencies across different class spaces, as well as the imbalance of labels in training datasets due to lack of all possible combinations. In this thesis, we propose a straightforward, yet efficient, MDC deep learning classifier, named “Deep Self-Organizing Cube” or “DSOC” that can model dependencies among classes in multiple class spaces, while consolidating its ability to classify rare combinations of labels. DSOC is formed of two n-dimensional components, namely the Hypercube Classifier and the multiple DSOC Neural Networks connected to the hypercube.  The multiple neural networks component is responsible for feature selection and segregation of classes, while the Hypercube classifier is responsible for creating the semantics among multiple class spaces and accommodate the model for rare sample classification. DSOC is a multiple-output learning algorithm that successfully classify samples across all class spaces simultaneously. To challenge the proposed DSOC model, we conducted an assessment on seventeen benchmark datasets in the four types of classification tasks, binary, multi-class, multi-label and multi-dimensional. The obtained results were compared to four standard classifiers and eight competitive state-of-the-art approaches reported in literature. The DSOC has achieved superior performance over standard classifiers as well as the state-of-the-art approaches in all the four classification tasks. Moreover, in terms of Exact Match accuracy metrics, DSOC has outer performed all state-of-the-art approaches in 77.8% of the cases, which reflects the superior ability of DSOC to model dependencies and successfully classify rare samples across all dimensions simultaneously. 

SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2024 - UFRN - app18_Prod.sigaa12