0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌提出MorphNet:网络规模更小、速度更快!

电子工程师 ? 来源:YXQ ? 2019-04-22 16:15 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

一直以来,深度神经网络在图像分类、文本识别等实际问题中发挥重要的作用。但是,考虑到计算资源和时间,深度神经网络架构往往成本很高。此次,谷歌研究人员提出一种自动化神经网络架构的新方法 MorphNet,通过迭代缩放神经网络,节省了资源,提升了性能。

深度神经网络(DNN)在解决图像分类、文本识别和语音转录等实际难题方面显示出卓越的效能。但是,为给定问题设计合适的 DNN 架构依然是一项具有挑战性的任务。考虑到巨大的架构搜索空间,就计算资源和时间而言,为具体应用从零开始设计一个网络是极其昂贵的。神经架构搜索(NAS)和 AdaNet 等方法使用机器学习来搜索架构设计空间,从而找出适合的改进版架构。另一种方法是利用现有架构来解决类似问题,即针对手头任务一次性对架构进行优化。

谷歌研究人员提出一种神经网络模型改进的复杂方法 MorphNet。研究人员发表了论文《MorphNet: Fast & Simple Resource-Constrained Structure Learning of Deep Networks》,MorphNet 将现有神经网络作为输入,为新问题生成规模更小、速度更快、性能更好的新神经网络。研究人员已经运用该方法解决大规模问题,设计出规模更小、准确率更高的产品服务网络。目前,MorphNet 的 TensoreFlow 实现已开源,大家可以利用该方法更高效地创建自己的模型。

MorphNet 开源项目地址:https://github.com/google-research/morph-net

MorphNet 的工作原理

MorphNet 通过收缩和扩展阶段的循环来优化神经网络。在收缩阶段,MorphNet 通过稀疏性正则化项(sparsifying regularizer)识别出效率低的神经元,并将它们从网络中去除,因而该网络的总损失函数包含每一神经元的成本。但是对于所有神经元,MorphNet 没有采用统一的成本度量,而是计算神经元相对于目标资源的成本。随着训练的继续进行,优化器在计算梯度时是了解资源成本信息的,从而得知哪些神经元的资源效率高,哪些神经元可以去除。

MorphNet 的算法

例如,考虑一下 MorphNet 如何计算神经网络的计算成本(如 FLOPs)。为简单起见,我们来思考一下被表示为矩阵乘法的神经网络层。在这种情况下,神经网络层拥有 2 个输入(x_n)、6 个权重 (a,b,...,f) 和 3 个输出(y_n)。使用标准教科书中行和列相乘的方法,你会发现评估该神经网络层需要 6 次乘法。

神经元的计算成本。

MorphNet 将其计算成本表示为输入数和输出数的乘积。请注意,尽管左边示例显示出了权重稀疏性,其中两个权重值为 0,但我们依然需要执行所有的乘法,以评估该神经网络层。但是,中间示例显示出了结构性的稀疏,其中神经元 y_n 最后一行上的所有权重值均为 0。MorphNet 意识到该层的新输出数为 2,并且该层的乘次数量由 6 降至 4。基于此,MorphNet 可以确定该神经网络中每一神经元的增量成本,从而生成更高效的模型(右边示例),其中神经元 y_3 被移除。

在扩展阶段,研究人员使用宽度乘数(width multiplier)来统一扩展所有层的大小。例如,如果层大小扩大 50%,则一个效率低的层(开始有 100 个神经元,之后缩小至 10 个神经元)将能够扩展回 15,而只缩小至 80 个神经元的重要层可能扩展至 120,并且拥有更多资源。净效应则是将计算资源从该网络效率低的部分重新分配给更有用的部分。

用户可以在收缩阶段之后停止 MorphNet,从而削减该网络规模,使之符合更紧凑的资源预算。这可以在目标成本方面获得更高效的网络,但有时可能导致准确率下降。或者,用户也可以完成扩展阶段,这将与最初目标资源相匹配,但准确率会更高。

MorphNet 可提供以下四个关键价值

有针对性的正则化:MorphNet 采用的正则化方法比其他稀疏性正则化方法更有目的性。具体来说,MorphNet 方法用于更好的稀疏化,但它的目标是减少资源(如每次推断的 FLOPs 或模型大小)。这可以更好地控制由 MorphNet 推导出的网络结构,这些网络结构根据应用领域和约束而出现显著差异。

例如,下图左展示了在 JFT 数据集上训练的 ResNet-101 基线网络。在指定目标 FLOPs(FLOPs 降低 40%,中间图)或模型大小(权重减少 43%,右图)的情况下,MorphNet 输出的结构具有很大差异。在优化计算成本时,相比于网络较高层中的低分辨率神经元,较低层中的高分辨率神经元会被更多地修剪掉。当目标是较小的模型大小时,剪枝策略相反。

MorphNet 有目标性的正则化(Targeted Regularization)。矩形的宽度与层级中通道数成正比,底部的紫色条表示输入层。左:输入到 MorphNet 的基线网络;中:应用 FLOP regularizer 后的输出结果;右:应用 size regularizer 后的输出结果。

MorphNet 能够把特定的优化参数作为目标,这使得它可针对特定实现设立具体参数目标。例如,你可以把「延迟」作为整合设备特定计算时间和记忆时间的首要优化参数。

拓扑变换(Topology Morphing):MorphNet 学习每一层的神经元,因此该算法可能会遇到将一层中所有神经元全都稀疏化的特殊情况。当一层中的神经元数量为 0 时,它切断了受影响的网络分支,从而有效地改变了网络的拓扑结构。例如,在 ResNet 架构中,MorphNet 可能保留残差连接,但移除残差模块(如下图左所示)。对于 Inception 结构,MorphNet 可能移除整个并行分支(如下图右所示)。

左:MorphNet 移除 ResNet 网络中的残差模块。右:MorphNet 移除 Inception 网络中的并行分支。

可扩展性:MorphNet 在单次训练运行中学习新的网络结构,当你的训练预算有限时,这是一种很棒的方法。MorphNet 还可直接用于昂贵的网络和数据集。例如,在上述对比中,MorphNet 直接用于 ResNet-101,后者是在 JFT 数据集上以极高计算成本训练出的。

可移植性:MorphNet 输出的网络具备可移植性,因为它们可以从头开始训练,且模型权重并未与架构学习过程绑定。你不必复制检查点或按照特定的训练脚本执行训练,只需正常训练新网络即可。

Morphing Network

谷歌通过固定 FLOPs 将 MorphNet 应用到在 ImageNet 数据集上训练的 Inception V2 模型上(详见下图)。基线方法统一缩小每个卷积的输出,使用 width multiplier 权衡准确率和 FLOPs(红色)。而 MorphNet 方法在缩小模型时直接固定 FLOPs,生成更好的权衡曲线。在相同准确率的情况下,新方法的 FLOP 成本比基线低 11%-15%。

将 MorphNet 应用于在 ImageNet 数据集上训练的 Inception V2 模型后的表现。仅使用 flop regularizer(蓝色)的性能比基线(红色)性能高出 11-15%。一个完整循环之后(包括 flop regularizer 和 width multiplier),在相同成本的情况下模型的准确率有所提升(「x1」,紫色),第二个循环之后,模型性能得到继续提升(「x2」,青色)。

这时,你可以选择一个 MorphNet 网络来满足更小的 FLOP 预算。或者,你可以将网络扩展回原始 FLOP 成本来完成缩放周期,从而以相同的成本得到更好的准确率(紫色)。再次重复 MorphNet 缩小/放大将再次提升准确率(青色),使整体准确率提升 1.1%。

结论:谷歌已经将 MorphNet 应用到其多个生产级图像处理模型中。MorphNet 可带来模型大小/FLOPs 的显著降低,且几乎不会造成质量损失。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6233

    浏览量

    108568
  • 神经网络
    +关注

    关注

    42

    文章

    4814

    浏览量

    104477

原文标题:谷歌提出MorphNet:网络规模更小、速度更快!

文章出处:【微信号:aicapital,微信公众号:全球人工智能】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    WiFi和以太网哪个更快

    以太网通常比WiFi更快、更稳定,尤其在理想条件下差距显著;而WiFi胜在灵活便捷,但实际速度受环境干扰较大。 以下是具体分析: 一、理论速度对比 以太网 千兆以太网(1Gbps) :理论速度
    的头像 发表于 07-01 09:54 ?523次阅读

    RVCT编译器是否比GNU的编译器的代码执行速度更快

    ,是rvct3.1还是rvct4.0?如何把rvct编译器集成到ide中? 2、RVCT编译器是否比GNU的编译器的代码执行速度更快
    发表于 05-08 07:49

    谷歌新一代 TPU 芯片 Ironwood:助力大规模思考与推理的 AI 模型新引擎?

    Cloud 客户开放,将提供 256 芯片集群以及 9,216 芯片集群两种配置选项。 ? 在核心亮点层面,Ironwood 堪称谷歌首款专门为 AI 推理精心设计的 TPU 芯片,能够有力支持大规模思考
    的头像 发表于 04-12 00:57 ?2637次阅读

    适用于数据中心和AI时代的800G网络

    提出了三大核心需求: 超低延迟和高带宽:确保大规模数据传输高效进行。 智能流量调度:采用自适应路由和负载均衡技术,减少网络拥塞。 性能隔离与稳定性:在多租户环境下保障带宽分配,防止性能
    发表于 03-25 17:35

    速度更快,传输更稳定的工业相机COF接口

    工业相机的数据接口之一COF接口,速度更快,传输更稳定的。
    的头像 发表于 03-10 17:32 ?581次阅读
    <b class='flag-5'>速度</b><b class='flag-5'>更快</b>,传输更稳定的工业相机COF接口

    谷歌公司被立案调查 谷歌股价暴跌 谷歌母公司Alphabet跌8%

    据国家市场监督管理总局消息显示,谷歌公司因涉嫌违反《中华人民共和国反垄断法》,已被该局依法开展立案调查。而且谷歌公司在全球多个国家均面临着反垄断的严峻挑战。其中,美国司法部更是对谷歌提出
    的头像 发表于 02-06 16:23 ?1597次阅读

    调制方式对网络速度的影响

    在现代通信技术中,调制方式是决定网络速度和信号质量的关键因素之一。调制是将信息信号(如数字信号)转换为适合在通信信道上传输的形式(如模拟信号)的过程。不同的调制方式有不同的特性,这些特性直接影响
    的头像 发表于 01-21 09:39 ?912次阅读

    谷歌发布“深度研究”AI工具,利用Gemini模型进行网络信息检索

    据外媒最新报道,谷歌近期发布了一款名为“深度研究”的先进AI工具。这款工具借助其内部的Gemini大型语言模型,实现了对网络信息的高效检索与深度挖掘,进一步满足了用户对精准、详尽信息的需求。 据悉
    的头像 发表于 12-16 09:35 ?798次阅读

    谷歌Find My技术 谷歌Find My Device网络适用的产品

    声音、设置警报等,以确保设备的安全和隐私。 谷歌Find My Device?网络覆盖了全球超过数十亿台安卓活跃设备。
    的头像 发表于 12-10 11:07 ?673次阅读

    谷歌Find My Device技术 谷歌Find My Device网络的优点

    声音、设置警报等,以确保设备的安全和隐私。 谷歌Find My Device?网络覆盖了全球超过数十亿台安卓活跃设备。
    的头像 发表于 12-05 10:59 ?1062次阅读
    <b class='flag-5'>谷歌</b>Find My Device技术 <b class='flag-5'>谷歌</b>Find My Device<b class='flag-5'>网络</b>的优点

    IPv6对网络速度的影响

    随着互联网的快速发展,IPv4地址的耗尽问题日益凸显。IPv6的引入,不仅解决了地址不足的问题,还带来了一系列技术改进,这些改进对网络速度和性能有着直接或间接的影响。 IPv6的技术特点 更大的地址
    的头像 发表于 10-29 18:04 ?2294次阅读

    恒讯科技分析:香港服务器网站访问速度如何才能达到最快?

    ,能够智能化地监控网络的当前状态,自动选择接入一条最优的网络线路,这样能够避免网络高峰时期对网站的访问造成不稳定的因素,而且也能让客户群体访问网站的速度
    的头像 发表于 10-08 13:28 ?499次阅读

    卡巴斯基称谷歌网络跟踪器活跃量全球第一

    卡巴斯基最新发布的2024年度网络追踪报告显示,谷歌公司的网络跟踪器在全球范围内的活跃量稳居榜首,这一现象再次引发了公众对在线隐私保护的关注。
    的头像 发表于 09-27 14:51 ?596次阅读

    谷歌Gemini 1.5 Flash模型升级,AI聊天速度飙升50%

    谷歌近期对其Gemini AI系列进行了重大更新,推出了Gemini 1.5 Flash模型。此次升级的核心亮点在于显著提升了AI聊天的响应速度,官方宣称最高可达50%的增速,为用户带来前所未有的流畅体验。
    的头像 发表于 09-06 18:06 ?1309次阅读

    谷歌正在考虑在越南建设超大规模数据中心

    据可靠消息透露,Alphabet集团旗下的谷歌公司正积极筹划在越南南部的经济枢纽胡志明市周边建设一座“超大规模”数据中心。此举标志着美国科技巨头首次在东南亚国家进行此类重大投资,尽管具体的投资金额尚待揭晓。
    的头像 发表于 08-30 14:55 ?1120次阅读