Banca de DEFESA: Ricardo José Menezes Maia

Uma banca de DEFESA de DOUTORADO foi cadastrada pelo programa.
DISCENTE : Ricardo José Menezes Maia
DATA : 28/12/2024
HORA: 10:00
LOCAL: Sala Multiuso CIC
TÍTULO:

P2MLF: Um Arcabouço para Preservação de Privacidade de Ponta a Ponta para Aplicações de Aprendizado de Máquina


PALAVRAS-CHAVES:

Computação Multipartidária Segura, Privacidade Diferencial, Aprendizagem Federada, DGA, Detecção de Intrusão, Preservação de Privacidade em Aprendizagem de Máquina


PÁGINAS: 104
RESUMO:

O direito à privacidade dos dados é fundamental tanto para indivíduos quanto para empresas. Concomitamente, os benefícios das aplicações de Machine Learning (ML) são igualmente importantes para ambos. Portanto, encontrar soluções para equalizar o dilema de garantir privacidade dos dados em aplicações que utilizam ML é vital em cenários de aplicações ML que possuam requisitos não funcionais de privacidade por questões legais.
No requisito de privacidade abordado neste trabalho apenas o dono do dado irá conhecer o seu próprio dado. Os problemas de privacidade podem surgir tanto no estágio de entrada quanto no de saída em aplicações ML e, para exemplificar os problemas, pode-se considerar que Alice é a proprietária das informações e Bob é o proprietário do modelo de ML. Garantir a privacidade na entrada significa que os dados não devem ser expostos, para evitar comprometer a privacidade dos dados de Alice ou a propriedade intelectual do modelo de Bob. Garantir a privacidade da entrada significa que Bob não precisa expor seu modelo em claro para Alice, e Alice não precisa expor seus dados em claro para o mod- elo de Bob. Mesmo com a privacidade garantida na entrada, Alice ainda pode explorar vazamentos de informações usadas por Bob no treinamento do modelo, e a privacidade na saída evita o vazamento dos dados utilizados na fase de treinamento do modelo. Garantir a privacidade dos dados na entrada e na saída durante a inferência e o treinamento é essencial para a proteção de privacidade de ponta a ponta em aplicações ML.
O principal objetivo e problema a ser resolvido nesta tese é propor uma abordagem que possa ser descrita como uma estrutura para garantir a privacidade de ponta a ponta, ou seja na entrada e na saída em aplicações ML.
Como objetivos secundários, incluem-se demonstrações da aplicabilidade das solucoes através de uma aplicação baseada em Secure Multi-Party Computation (MPC) para inferência privada de Malicious Software (Malware) com modelos Multi- Layer Perceptron (MLP), One-Dimensional Convolutional Neural Network (CNN1D) e Long Short-Term Memory (LSTM) treinados com Differentially-Private Stochastic Gradient Descent (DP-SGD). Outra aplicação irá utilizar os métodos descritos neste trabalho para treinamento de modelos de detecção de intrusão.
Por fim, para citar uma das contribuições do método de inferência do framework proposto, este trabalho utiliza quantização float16 pós-treinamento de modelos de deep learning com MPC para alcançar uma detecção de Domain Generation Algorithms (DGA) eficiente e segura. Este trabalho demonstra que, ao usar a quantização, obtém-se um aumento significativo na velocidade, resultando em uma redução de 23% a 42% no tempo de execução da inferência sem reduzir a acurácia, utilizando um protocolo de computação segura de três partes tolerante a uma corrupção. Soluções anteriores não são privadas de ponta a ponta, não fornecem garantias de privacidade diferencial para os resultados do modelo e assumem-se que as camadas de embeddings do modelo sejam publicamente conhecidas. O melhor protocolo em termos de precisão é executado em cerca de 0.22 segundos.


MEMBROS DA BANCA:
Presidente - 356930 - RICARDO PEZZUOL JACOBI
Interno - 1702065 - BRUNO LUIGGI MACCHIAVELLO ESPINOZA
Externo ao Programa - 1141309 - JOAO JOSE COSTA GONDIM - UnBExterno à Instituição - BERNARDO MACHADO DAVID - UCPH
Externo à Instituição - EDWARD DAVID MORENO ORDONEZ - UFS
Notícia cadastrada em: 06/12/2024 08:33
SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2025 - UFRN - app20.sigaa20