由于深度神经网络 (DNN) 计算密集型的特性,在智能手机和自动驾驶汽车等边缘设备上部署深度神经网络 (DNN) 仍然是一项重大挑战。大多数现有的剪枝算法都难以在高压缩率和推理精度之间取得平衡,并且必须与商用硬件兼容 — 非结构化剪枝会产生不规则的稀疏性,这通常会限制其在实际场景中的使用。相反,结构化剪枝的粒度相对较粗,往往会损害精度。此外,半结构化剪枝虽然乐观地期望能够平衡这些权衡,但在各种 DNN 架构中应用很少。这样的挑战要求任何模型都有一个统一而高效的剪枝框架,从而在资源受限的情况下进一步提高性能。
目前的剪枝策略分为三类:非结构化、结构化或半结构化。非结构化剪枝为权重消除提供了最大的灵活性,但会导致稀疏性配置与硬件加速不兼容。结构化剪枝消除了完整的滤波器或层,提高了与硬件的兼容性,但由于粒度过大,会影响精度。半结构化剪枝侧重于权重矩阵中的系统模式,力求在效率和精度之间取得平衡。然而,该方法的应用大多局限于特定类型的 DNN,如 CNN,而其余的架构,如视觉转换器,则尚未得到充分探索。涉及 GNN 和强化学习的自动化方法主要用于结构化和非结构化剪枝,而基于模式的剪枝技术还未得到充分开发。这种差距需要一个更强大、更通用的剪枝框架。
中国海洋大学的研究人员提出了 AutoSculpt,这是一种先进的模型剪枝解决方案,它采用图神经网络 (GNN) 和深度强化学习 (DRL) 来优化压缩策略。它通过将 DNN 表示为捕获其拓扑结构和参数依赖关系的图来实现这一点。它将基于模式的剪枝策略嵌入到这些图表示中,有效地利用常规结构来增强硬件兼容性和推理效率。使用图注意力网络 (GATv2) 编码器,所提出的方法通过强化学习系统地改进剪枝模式,从而在压缩和准确性之间达到理想的平衡。该策略极大地提高了基于模式的剪枝的灵活性,从而将其适用性扩展到 CNN 和 Vision Transformers 等架构。
在 AutoSculpt 中,DNN 是图形表示,其中节点表示权重或层,边表示依赖关系,包括 ResNet 等架构的残差连接的显式映射。剪枝策略使用 DRL 代理来评估图形嵌入,以建议最佳修剪模式,平衡 FLOP 减少和准确度保持等目标。动态奖励函数会调整这些目标之间的优先级。所提出的框架已使用 CIFAR-10/100 和 ImageNet-1K 数据集以及 ResNet、MobileNet、VGG 和 Vision Transformers 等架构进行了测试。丰富的图形表示可以高效使用修剪模式,并展示该方法的多功能性和广泛可用性。
AutoSculpt 取得了显著的成果,在模型压缩方面始终优于最先进的方法。据报道,它在 VGG-19 等更简单的架构上能够实现高达 90% 的修剪率,而且与其他最先进的方法相比,FLOP 也降低了 18%。对于更复杂的模型,例如 ResNet 和 Vision Transformers,该论文能够通过分别实现高达 55% 和 45% 的修剪率来平衡这一点,而准确度损失不低于 3%。
推理延迟也显著降低,执行时间缩短了 29%,适用于资源受限的应用程序。经过微调后,剪枝后的模型往往能与原始模型相媲美甚至超越原始模型,这表明该方法在压缩过程中保留关键参数方面非常可靠。
AutoSculpt 将 DNN 修剪转化为高效压缩的更好解决方案,在各种架构中提供卓越的性能。它通过应用 GNN 和强化学习,解决了长期以来在准确性、压缩和硬件兼容性方面的权衡问题。它既灵活又稳健;因此,它使在边缘设备上部署 DNN 的里程碑更接近现实,为在资源有限的环境中实现更实用、更高效的人工智能应用提供了途径。
论文地址:https://arxiv.org/abs/2412.18091
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/jishu/55016.html