赞
踩
©PaperWeekly 原创 · 作者 | 陈天翼
单位 | 微软
研究方向 | 模型压缩
大型神经网络 DNN 对资源的巨大需求限制了其在现实世界的部署,如何在尽可能小地损失性能的前提下,压缩神经网络是 DNN 产品化的关键。
剪枝是最常见的 DNN 压缩方法之一,旨在减少冗余结构,给 DNN 模型瘦身的同时保持模型性能。然而,现有的剪枝方法通常指针对特定模型,特定任务,并需要 AI 工程师投入大量的工程和时间精力来应用这些方法到自己的任务上。
为了解决这些问题,微软团队提出了 OTOv2 框架,并发表于 ICLR 2023。OTOv2 是业内首个自动化,一站式,用户友好,且通用的神经网络训练与结构压缩框架。通过使用 OTOv2,AI 工程师可以非常方便地训练目标神经网络,一站式地取得高性能且轻量化的模型。OTOv2 最小化了开发者额外的工程时间精力的投入,且全程无需现有方法通常需要的非常耗时的预训练和额外的模型微调。
论文链接:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。