-
SASL: Saliency-Adaptive Sparsity Learning for Neural Network AccelerationARXIV/Convolution Neural Network 2020. 3. 17. 11:15
https://arxiv.org/abs/2003.05891v1
SASL: Saliency-Adaptive Sparsity Learning for Neural Network Acceleration
Accelerating the inference speed of CNNs is critical to their deployment in real-world applications. Among all the pruning approaches, those implementing a sparsity learning framework have shown to be effective as they learn and prune the models in an end-
arxiv.org
abstract
본 논문은 CNN의 추론 속도를 높이기 위해 추가 최적화를 위한 SASL(Saliency-Adaptive Sparsity Learning) 접근법을 제안한다.
접근법은 saliency를 설계했는데 즉, 예측 성능의 중요성과 소비되는 자원에 대한 두가지 측면에서 측정된다.
sparsity learning 중에 정규화 강도는 saliency에 따라 조정되어, 본 논문에서 제시하는 SASL 방법이 효율성을 높인다고 한다.
또한 여러 실험에서도 광범위하게 사용이 가능하며 특히 ILSVRC-2012 데이터에서 ResNet-50 FLOP을 49.7% 감소시킴을 보여주었다.
'ARXIV > Convolution Neural Network' 카테고리의 다른 글