Integração Multissensor de Câmera e Radar para Detecção de Objetos com aplicação em Sistemas Avançados de Auxílio à Condução.
1) Fusão sensorial, 2) Detecção de objetos, 3) Câmera, 4) Radar
A percepção precisa do ambiente é um elemento essencial para a navegação segura de
veículos autônomos. Este trabalho investiga a fusão de dados entre sensores de câmera e
radar automotivo, utilizando a base de dados nuScenes, com foco na aplicação de técnicas de
fusão de baixo e médio níveis, tendo o algoritmo Faster R-CNN como base. Inicialmente, foi
implementada a fusão de baixo nível por meio da Radar Region Proposal Network (RRPN),
na qual o radar é utilizado como sensor principal para a geração de regiões de interesse. No
entanto, essa abordagem resultou em desempenho inferior ao do detector baseado exclusi-
vamente em câmera, uma vez que objetos não detectados pelo radar não são processados
pela rede neural, comprometendo a robustez da detecção. Nossos estudos demonstraram
que mais da metade das bicicletas e motocicletas anotadas na base de dados nuScenes não
possuem qualquer ponto de radar associado; para pedestres, apenas cerca de 20% apresentam
ao menos um ponto de radar.
Em seguida, foi avaliada a fusão de características (médio nível), com a implementação do
módulo Spatial Attention Fusion (SAF) na arquitetura da rede. Os resultados demonstraram
melhorias consistentes nas métricas de desempenho, com destaque para aumentos de 1,64%
em AP75, 0,96% em AP50, 0,80% em AR e 1,36% em APs, indicando maior precisão na
localização das caixas delimitadoras e na detecção de pequenos objetos. Esses avanços
validam o potencial da fusão sensorial em nível de características como estratégia eficaz para
aprimorar a percepção em sistemas autônomos.