Despregamento de Redes de Aprendizaxe Profunda no Bordo mediante Técnicas de Compresión.
Autoría
M.R.R.
Máster Universitario en Intelixencia Artificial
M.R.R.
Máster Universitario en Intelixencia Artificial
Data da defensa
20.02.2025 10:30
20.02.2025 10:30
Resumo
Nos últimos anos, os modelos de aprendizaxe profunda creceron exponencialmente en complexidade e tamaño, facendo que o seu despregamento en dispositivos no bordo con recursos limitados sexa un reto significativo. Este TFM/MSc explora técnicas de compresión de modelos, incluíndo a cuantización, poda e destilación do coñecemento, para optimizar as redes neuronais profundas para a computación no bordo mantendo unha alta precisión. Os métodos propostos aplícanse a un modelo ResNet-50 adestrado no conxunto de datos CIFAR-10, avaliando o seu impacto no tamaño do modelo, a velocidade de inferencia e a precisión. Os modelos optimizados despréganse na FPGA ZCU104 utilizando Vitis AI, demostrando a viabilidade de executar modelos eficientes de aprendizaxe profunda en hardware con recursos computacionais limitados. Os resultados experimentais mostran que unha combinación de técnicas de compresión pode lograr unha redución do tamaño do modelo de ata o 95%, preservando ou mesmo mellorando a precisión. Estes resultados poñen de relevo o potencial da compresión de modelos para permitir a inferencia en tempo real en dispositivos periféricos, reducir a latencia e mellorar a eficiencia enerxética.
Nos últimos anos, os modelos de aprendizaxe profunda creceron exponencialmente en complexidade e tamaño, facendo que o seu despregamento en dispositivos no bordo con recursos limitados sexa un reto significativo. Este TFM/MSc explora técnicas de compresión de modelos, incluíndo a cuantización, poda e destilación do coñecemento, para optimizar as redes neuronais profundas para a computación no bordo mantendo unha alta precisión. Os métodos propostos aplícanse a un modelo ResNet-50 adestrado no conxunto de datos CIFAR-10, avaliando o seu impacto no tamaño do modelo, a velocidade de inferencia e a precisión. Os modelos optimizados despréganse na FPGA ZCU104 utilizando Vitis AI, demostrando a viabilidade de executar modelos eficientes de aprendizaxe profunda en hardware con recursos computacionais limitados. Os resultados experimentais mostran que unha combinación de técnicas de compresión pode lograr unha redución do tamaño do modelo de ata o 95%, preservando ou mesmo mellorando a precisión. Estes resultados poñen de relevo o potencial da compresión de modelos para permitir a inferencia en tempo real en dispositivos periféricos, reducir a latencia e mellorar a eficiencia enerxética.
Dirección
BREA SANCHEZ, VICTOR MANUEL (Titoría)
PARDO SECO, FERNANDO RAFAEL Cotitoría
BREA SANCHEZ, VICTOR MANUEL (Titoría)
PARDO SECO, FERNANDO RAFAEL Cotitoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
VILA BLANCO, NICOLAS (Vogal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
Pardo López, Xosé Manuel (Secretario/a)
VILA BLANCO, NICOLAS (Vogal)