深度神经网络通常会导致大量计算和存储资源的消耗,阻碍其在移动和嵌入式设备上的部署。因此,降低深度神经网络的计算和存储资源消耗,成为深度学习落地应用的重要问题之一。本次演讲中,我们将首先回顾深度神经网络压缩和加速领域的经典工作,然后介绍我们实验室在这一领域的研究工作,包括:(1)卷积神经网络的剪枝; (2) 压缩特定任务的神经网络,例如人脸识别、风格迁移和超分辨率网络等; (3) Transformer网络的压缩;(4)Transformer与CNN的协同知识蒸馏。在大模型时代,深度神经网络压缩和加速领域的机遇和挑战在哪里?我们也会对以上问题进行启发式的探讨。
紧抓多媒体生态趋势,将浏览器、WebAssembly和Rust等热点结合;熟知播放器工作原理,为实现商业化H.264/H.265播放器打下坚实基础;课程包含图文、代码、视频,降低学习门槛; 李超精准讲解,及时详细解答