0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌发表论文EfficientNet 重新思考CNN模型缩放

DPVg_AI_era ? 来源:yxw ? 2019-06-03 14:19 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

谷歌AI研究部门华人科学家再发论文《EfficientNet:重新思考CNN模型缩放》,模型缩放的传统做法是任意增加CNN的深度和宽度,或使用更大的输入图像分辨率进行训练,而使用EfficientNet使用一组固定额缩放系数统一缩放每个维度,超越了当先最先进图像识别网络的准确率,效率提高了10倍,而且更小。

目前提高CNN精度的方法,主要是通过任意增加CNN深度或宽度,或使用更大的输入图像分辨率进行训练和评估。

以固定的资源成本开发,然后按比例放大,以便在获得更多资源时实现更好的准确性。例如ResNet可以通过增加层数从ResNet-18扩展到ResNet-200。

再比如开源大规模神经网络模型高效训练库GPipe,通过将基线CNN扩展四倍来实现84.3% ImageNet top-1精度。

这种方法的优势在于确实可以提高精度,但劣势也很明显。这个时候往往需要进行繁琐的微调。一点点的摸黑去试、还经常的徒劳无功。这绝对不是一件能够让人身心愉快的事情,对于谷歌科学家们也一样。

这就是为什么,谷歌人工智能研究部门的科学家们正在研究一种新的“更结构化”的方式,来“扩展”卷积神经网络。他们给这个新的网络命名为:EfficientNet(效率网络)。

代码已开源,论文刚刚上线arXiv,并将在6月11日,作为poster亮相ICML 2019。

比现有卷积网络小84倍,比GPipe快6.1倍

为了理解扩展网络的效果,谷歌的科学家系统地研究了缩放模型不同维度的影响。模型缩放并确定仔细平衡网络深度后,发现只要对网络的深度、宽度和分辨率进行合理地平衡,就能带来更好的性能。基于这一观察,科学家提出了一种新的缩放方法,使用简单但高效的复合系数均匀地缩放深度、宽度和分辨率的所有尺寸。

据悉,EfficientNet-B7在ImageNet上实现了最先进精度的84.4% Top 1/97.1% Top 5,同时比最好的现有ConvNet小84倍,推理速度快6.1倍;在CIFAR-100(91.7%),Flower(98.8%)和其他3个迁移学习数据集上,也能很好地传输和实现最先进的精度。参数减少一个数量级,效率却提高了10倍(更小,更快)。

与流行的ResNet-50相比,另一款EfficientNet-B4使用了类似的FLOPS,同时将ResNet-50的最高精度从76.3%提高到82.6%。

这么优秀的成绩是如何做到的

这种复合缩放方法的第一步是执行网格搜索,在固定资源约束下找到基线网络的不同缩放维度之间的关系(例如,2倍FLOPS),这样做的目的是为了找出每个维度的适当缩放系数。然后应用这些系数,将基线网络扩展到所需的目标模型大小或算力预算。

与传统的缩放方法相比,这种复合缩放方法可以持续提高扩展模型的准确性和效率,和传统方法对比结果:MobileNet(+ 1.4% imagenet精度),ResNet(+ 0.7%)。

新模型缩放的有效性,很大程度上也依赖基线网络。

为了进一步提高性能,研究团队还通过使用AutoML MNAS框架执行神经架构搜索来开发新的基线网络,该框架优化了准确性和效率(FLOPS)。

由此产生的架构使用移动倒置瓶颈卷积(MBConv),类似于MobileNetV2和MnasNet,但由于FLOP预算增加而略大。然后,通过扩展基线网络以获得一系列模型,被称为EfficientNets。

不仅局限于ImageNet

EfficientNets在ImageNet上的良好表现,让谷歌的科学家希望将其应用于更广泛的网络中,造福更多的人。

在8个广泛使用的迁移学习数据集上测试之后,EfficientNet在其中的5个网络实现了最先进的精度。例如,在参数减少21倍的情况下,实现了CIFAR-100(91.7%)和Flowers(98.8%)。

看到这样的结果,谷歌科学家预计EfficientNet可能成为未来计算机视觉任务的新基础,因此将EfficientNet开源。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6233

    浏览量

    108559
  • AI
    AI
    +关注

    关注

    88

    文章

    35757

    浏览量

    282423
  • cnn
    cnn
    +关注

    关注

    3

    文章

    354

    浏览量

    22826

原文标题:谷歌出品EfficientNet:比现有卷积网络小84倍,比GPipe快6.1倍

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    模型时代的深度学习框架

    作者:算力魔方创始人/英特尔创新大使刘力 在 CNN时代 ,AI模型的参数规模都在百万级别,仅需在单张消费类显卡上即可完成训练。例如,以业界知名的CNN模型: ResNet50 为例,
    的头像 发表于 04-25 11:43 ?327次阅读
    大<b class='flag-5'>模型</b>时代的深度学习框架

    CoT 数据集如何让大模型学会一步一步思考

    目前,大模型的回答路径基本遵循 input-output 的方式,在面对复杂任务时表现不佳。反之,人类会遵循一套有条理的思维流程,逐步推理得出正确答案。这种差异促使人们深入思考:如何才能让大模型“智能涌现”,学会像人类一样“一步
    的头像 发表于 04-24 16:51 ?688次阅读
    CoT 数据集如何让大<b class='flag-5'>模型</b>学会一步一步<b class='flag-5'>思考</b>?

    谷歌新一代 TPU 芯片 Ironwood:助力大规模思考与推理的 AI 模型新引擎?

    Cloud 客户开放,将提供 256 芯片集群以及 9,216 芯片集群两种配置选项。 ? 在核心亮点层面,Ironwood 堪称谷歌首款专门为 AI 推理精心设计的 TPU 芯片,能够有力支持大规模思考
    的头像 发表于 04-12 00:57 ?2634次阅读

    无法转换TF OD API掩码RPGA模型怎么办?

    无法转换重新训练的 TF OD API 掩码 RPGA 模型,该模型使用以下命令在 GPU 上工作: mo > --saved_model_dir
    发表于 03-06 06:44

    美报告:中国芯片研究论文全球领先

    据新华社报道,美国乔治敦大学“新兴技术观察项目(ETO)”3日在其网站发布一份报告说,2018年至2023年间,在全球发表的芯片设计和制造相关论文中,中国研究人员的论文数量远超其他国家,中国在高被
    的头像 发表于 03-05 14:32 ?1271次阅读

    DeepSeek发表重磅论文!推出NSA技术,让AI模型降本增效

    这是自1月20日DeepSeek发布R1模型震撼AI圈以来,DeepSeek首次发布的技术动态。
    的头像 发表于 02-19 10:22 ?1575次阅读
    DeepSeek<b class='flag-5'>发表</b>重磅<b class='flag-5'>论文</b>!推出NSA技术,让AI<b class='flag-5'>模型</b>降本增效

    谷歌 Gemini 2.0 Flash 系列 AI 模型上新

    谷歌旗下 AI 大模型 Gemini 系列全面上新,正式版 Gemini 2.0 Flash、Gemini 2.0 Flash-Lite 以及新一代旗舰大模型 Gemini 2.0 Pro 实验
    的头像 发表于 02-07 15:07 ?794次阅读

    借助谷歌Gemini和Imagen模型生成高质量图像

    在快速发展的生成式 AI 领域,结合不同模型的优势可以带来显著的成果。通过利用谷歌的 Gemini 模型来制作详细且富有创意的提示,然后使用 Imagen 3 模型根据这些提示生成高质
    的头像 发表于 01-03 10:38 ?968次阅读
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen<b class='flag-5'>模型</b>生成高质量图像

    Kimi发布视觉思考模型k1,展现卓越基础科学能力

    近日,Kimi公司正式发布了其最新的视觉思考模型——k1。这款模型基于先进的强化学习技术构建,原生支持端到端的图像理解和思维链技术,为用户提供了全新的视觉思考体验。 k1
    的头像 发表于 12-17 09:59 ?846次阅读

    谷歌发布Gemini 2.0 AI模型

    谷歌近日正式推出了新一代AI模型——Gemini 2.0。此次更新引入了名为“深度研究”的新特性,旨在为用户提供更加全面和深入的复杂主题探索与报告撰写辅助。 Gemini 2.0通过高级推理和长上
    的头像 发表于 12-12 10:13 ?729次阅读

    车载大模型分析揭示:存储带宽对性能影响远超算力

    车载大模型的定义尚无,传统大模型即LLM的参数一般在70亿至2000亿之间,而早期的CNN模型参数通常不到1000万,CNN
    的头像 发表于 11-09 10:36 ?1495次阅读
    车载大<b class='flag-5'>模型</b>分析揭示:存储带宽对性能影响远超算力

    Waymo利用谷歌Gemini大模型,研发端到端自动驾驶系统

    迈新步,为其机器人出租车业务引入了一种基于谷歌多模态大语言模型(MLLM)“Gemini”的全新训练模型——“端到端多模态自动驾驶模型”(EMMA)。
    的头像 发表于 10-31 16:55 ?1889次阅读

    谷歌计划12月发布Gemini 2.0模型

    近日,有消息称谷歌计划在12月发布其下一代人工智能模型——Gemini 2.0。这一消息引发了业界的广泛关注,因为谷歌在人工智能领域一直保持着领先地位,而Gemini系列模型更是其重要
    的头像 发表于 10-29 11:02 ?1209次阅读

    Llama 3 模型训练技巧

    噪声和异常值,确保数据的一致性和准确性。 特征工程 :提取有助于模型学习的特征,可能包括特征选择、特征转换和特征编码。 数据增强 :对于图像或文本数据,可以通过旋转、缩放、裁剪等方法增加数据多样性。 归一化/标准化 :将数据缩放
    的头像 发表于 10-27 14:24 ?928次阅读

    使用功率缩放

    电子发烧友网站提供《使用功率缩放库.pdf》资料免费下载
    发表于 10-18 10:24 ?0次下载
    使用功率<b class='flag-5'>缩放</b>库