0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一个大规模多任务学习框架?2Net

OpenCV学堂 ? 来源:新智元 ? 作者:新智元 ? 2022-07-21 10:19 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

【导读】谷歌大神Jeff Dean最近亲自操刀发新作,提出了一个大规模多任务学习框架?2Net,基本把各大数据集多任务学习的SOTA刷了个遍,但这次为何网友有点不买账了?很简单,差钱。

2021年10月,Jeff Dean亲自撰文介绍了一个全新的机器学习架构——Pathways。 目的很简单,就是让一个AI能够跨越数以万计的的任务,理解不同类型的数据,并同时以极高的效率实现:

15b2e4ce-083d-11ed-ba43-dac502259ad0.gif

在大半年之后的2022年3月,Jeff Dean终于发布了Pathways的论文。

15e0d01e-083d-11ed-ba43-dac502259ad0.png

论文连接:https://arxiv.org/abs/2203.12533 其中,补充了不少技术上的细节,比如最基本的系统架构等等。

15ef2556-083d-11ed-ba43-dac502259ad0.png

2022年4月,谷歌用Pathways的PaLM语言模型横空出世,接连打破多项自然语言处理任务的SOTA,这个拥有5400亿参数的Transformer语言模型再次证明了「大力出奇迹」。 除了用到强大的Pathways系统外,论文中介绍PaLM的训练用到了6144个TPU v4,使用了7800亿token的高质量数据集,并且其中有一定比例的非英文多语种语料。

160c07e8-083d-11ed-ba43-dac502259ad0.png

论文地址:https://arxiv.org/abs/2204.02311 最近,Jeff Dean一篇新作又引发了大家对Pathways的猜测。

Pathways的拼图又合上了一块?

这篇论文的作者只有两位:大名鼎鼎的Jeff Dean和来自意大利的工程师Andrea Gesmundo。 有趣的是,不仅Gesmundo很低调,而且前两天刚吹完自家Imagen的Jeff Dean也完全没有在推特上提及此事。 而有网友拜读之后推测,这可能是下一代AI架构Pathways的组成部分。

161a3020-083d-11ed-ba43-dac502259ad0.png

论文地址:https://arxiv.org/abs/2205.12755 本文的思路是这样的: 通过动态地将新任务纳入一个大型运行系统,可以利用稀疏多任务机器学习模型的碎片,来实现新任务质量的提升,并可以在相关任务之间自动分享模型的碎片。 这种方法可以提高每个任务的质量,并在收敛时间、训练实例数量、能源消耗等方面提高模型效率。本文提出的机器学习问题框架,可以视作标准多任务和持续学习形式化的概括和综合。 在这个框架下,再大的任务集都可以被联合解决。 而且,随着时间的推移,任务集中可以加入连续的新任务流来实现扩展。预训练任务和下游任务之间的区别也不存在了。 因为,随着新任务的加入,系统会寻找如何将已有的知识和表征与新的模型能力相结合,以实现每个新任务的高质量水平。在解决一个新任务时获得的知识和学到的表征,也可用于任何未来的任务,或继续学习现有任务。 这个方法名为「突变多任务网络」或?2Net。(μ=Mutation)

1627a9bc-083d-11ed-ba43-dac502259ad0.png

用于大规模持续学习实验的两类突变模型 简单说,就是生成一个大规模的多任务网络,去联合解决多个任务。不仅每个任务的质量和效率都获得了提升,还可以通过动态增加新的任务来实现模型的扩展。 通过对以前任务的学习,嵌入到系统中的知识积累越多,后续任务的解决方案的质量就越高。 此外,在减少每个任务新添加的参数方面,新任务的解决效率可以不断提高。生成的多任务模型是稀疏激活的,模型集成了基于任务的路由机制,随着模型的扩展,保证每个任务的计算成本的上升是有界限的。

16330ffa-083d-11ed-ba43-dac502259ad0.png

每个任务激活的和增加的参数占多任务系统参数总数的百分比 从每个任务学到的知识被分割成可以被多个任务重用的部分。实验证明,这种分块技术避免了多任务和持续学习模型的常见问题,如灾难性遗忘、梯度干扰和负迁移。 对任务路线空间的探索和对每个任务最相关的先验知识子集的识别是由一个进化算法引导的,该算法旨在动态地调整探索/利用的平衡,而不需要手动调整元参数。同样的进化逻辑被用于动态调整超参数多任务模型组件。

16461cd0-083d-11ed-ba43-dac502259ad0.gif

既然叫「突变网络」,这个突变是怎么解释的? 深度神经网络通常由架构和超参数来定义。本文中的架构是由一连串的神经网络层组成的。每个层将输入向量映射到一个可变维度的输出向量,网络实例化的细节,比如优化器或数据预处理的配置,则由超参数确定。 所以这里讲的突变也分为两类,层克隆突变和超参数突变。 层克隆突变创建了一个可以被子模型训练的任何父模型图层的副本。如果父模型的某层没有被选中进行克隆,会冻结当前状态并与子模型共享,以保证预先存在的模型的不变性。 超参数突变则用于修改子层从父层继承的配置。每个超参数的新值可以从一组有效值中抽取。对于数字超参数,有效值集被排序为一个列表,采样时仅限于相邻值,以应用一个增量变化约束。 来看看实际效果如何:

16645286-083d-11ed-ba43-dac502259ad0.png

在ImageNet 2012、cifar100、cifar10三个数据集上,?2Net在5任务迭代、10任务迭代后的表现均超过了当前最通用和性能最好的ViT预训练微调模型。 在任务扩展方面,在加入VTAB-full和VDD持续学习任务后,?2Net性能表现获得进一步提升,在cifar10数据集上的VDD持续学习任务表现达到了99.43%的最佳成绩。

1686974c-083d-11ed-ba43-dac502259ad0.png

在多任务字符分类基准任务上,在两次任务迭代后,?2Net在大部分数据集上刷新了SOTA水平,数据集规模由2.5k到240k样本容量不等。

16baac6c-083d-11ed-ba43-dac502259ad0.png

简单来说,在这个架构之下,模型学习的任务越多,系统学到的知识就越多,也就越容易解决新的任务。 比如,一个ViT-L架构(3.07亿个参数)可以演变成一个具有1308.7亿个参数的多任务系统,并解决69个任务。 此外,随着系统的增长,参数激活的稀疏性使每个任务的计算量和内存用量保持不变。实验表面,每个任务平均增加的参数减少了38%,而多任务系统只激活了每个任务总参数的2.3%。 当然,在这一点上,它只是一个架构和初步实验。

网友:论文很好,但……

虽然论文很棒棒,但好像有人不买账。 有些热爱戳穿皇帝新衣的网友,在reddit上发帖,称他再也不相信爱情……哦不,「顶级实验室/研究机构」出品的AI论文了。 这位ID为「Acurite先生」的网友称,他自然相信这些论文里的数据与模型运行结果。 但,就拿Jeff Dean老师的这篇论文来说吧,18页的论文说了特别复杂的进化卷积与多任务学习算法,厉害,亮眼,好顶赞。 不过,有两点不得不提出: 第一,Jeff Dean们在论文中提出的证明自己胜过竞品的跑分结果,是CIFAR-10基准测试准确度99.43,胜过了当前SOTA的99.40…… 也不能说这是忽悠,但真的很让人难以措辞形容。

16d7817a-083d-11ed-ba43-dac502259ad0.png

第二,论文末尾有用TPU跑算法得出最终结果的时间耗费表,总计17810小时。 假设有人不在谷歌干、又想复现论文结果,按照每小时3.22美元的市价租TPU来再跑一次,那花费就是57348美元。 有啥意思呢?连日常论文都要设置钞能力门槛了吗? 当然,这种做派现在是业界风气,包括但不限于谷歌、OpenAI这些大玩家。大家都往模型里灌少少改进现状的创意、和多多的预处理数据与基准。 然后,只要运行结果在数值上比对家高出哪怕百分点后的小数点后二位,研究者也可以理直气壮地在简历上新增一行论文题目啦! 这么搞,对学界和业界有啥真的推动?普通研究生又花不起钱来验证你的结论,普通企业又没法在项目里使用这么无聊的跑分。 还是那句话,有啥意思呢? 这难道就是AI界的可接受舒适区么?一小拨大企业、和偶尔的顶尖学校,天天炫耀我有钱可以为所欲为、你没钱只好跟后面吃灰? 这么玩下去,干脆另开个计算机学期刊,专收那些结果可以在消费级单机显卡上八小时跑出复现的论文算了。 跟帖里,有论文任务的研究生们纷纷诉苦。 有位ID是「支持向量机」的网友说,自己是小型实验室里的从业者,因为这个势头,已经快完全丧失继续搞深度学习的动力了。 因为靠自己实验室的预算,根本没法和这些巨无霸比,出不了钞能力打底的跑分结果。 即使你有个理论上的新点子,要写成能过评议的论文也难。因为现在论文评议人里,被大厂的钞能力养出了「美图偏见」,论文里用来测试的图像不好看,一切白搭。 不是说巨无霸大厂一无是处啊,GPT和DALL-E这些项目真的是开天辟地。但如果我自己的机器跑不动,我激动个啥呢。 另有一个博士生网友现身说法,跟帖佐证「支持向量机」。 博士生前两年递交了一份关于流模型的论文,主要着重于发现可采样的数据潜在空间,对模型的图片生成质量没影响。 结果论文打分人给的批评意见是:「生成的图像看起来不如用GAN生成的好」。 另一个ID叫「乌代」的研究生也说,2021年他提交的参加会议论文,打分人给的批评意见是:「数据不够花哨。」

173f935a-083d-11ed-ba43-dac502259ad0.png

看来人力不敌钞能力,真是东西心理攸同、中外道术未裂的世界性趋势。 不过三十年河东、三十年河西,说不定算法草根化、全民大写码,会带来第二次车库创业企业打败IBM的奇迹呢。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 框架
    +关注

    关注

    0

    文章

    404

    浏览量

    17944
  • 机器学习
    +关注

    关注

    66

    文章

    8510

    浏览量

    134844
  • 数据集
    +关注

    关注

    4

    文章

    1224

    浏览量

    25532

原文标题:Jeff Dean大规模多任务学习SOTA遭吐槽,复现一遍要6万美元!

文章出处:【微信号:CVSCHOOL,微信公众号:OpenCV学堂】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    快速入门——LuatOS:sys库多任务管理实战攻略!

    的开发者,这里将用最简明的步骤,助你轻松实现多任务应用开发! sys库是LuatOS的核心系统调度库,它基于Lua协程机制实现了实时多任务调度、定时器管理以及消息通信等功能。 在详细介绍sys库之前,我们先来补充些关于实时操作
    的头像 发表于 05-29 14:36 ?283次阅读
    快速入门——LuatOS:sys库<b class='flag-5'>多任务</b>管理实战攻略!

    薄型、多频段、大规模物联网前端模块 skyworksinc

    电子发烧友网为你提供()薄型、多频段、大规模物联网前端模块相关产品参数、数据手册,更有薄型、多频段、大规模物联网前端模块的引脚图、接线图、封装手册、中文资料、英文资料,薄型、多频段、大规模物联网前端模块真值表,薄型、多频段、
    发表于 05-15 18:32
    薄型、多频段、<b class='flag-5'>大规模</b>物联网前端模块 skyworksinc

    带耦合器的大规模物联网半双工前端模块 skyworksinc

    电子发烧友网为你提供()带耦合器的大规模物联网半双工前端模块相关产品参数、数据手册,更有带耦合器的大规模物联网半双工前端模块的引脚图、接线图、封装手册、中文资料、英文资料,带耦合器的大规模物联网半双工前端模块真值表,带耦合器的
    发表于 05-09 18:35
    带耦合器的<b class='flag-5'>大规模</b>物联网半双工前端模块 skyworksinc

    大规模 GOA 液晶线路修复方法

    。 故障定位与分类 大规模修复的第步是精准定位故障。通过专业的检测设备,如自动光学检测(AOI)系统,能够快速扫描 GOA 液晶线路板,识别出线路断路、短路以及
    的头像 发表于 04-24 13:46 ?355次阅读
    <b class='flag-5'>大规模</b> GOA 液晶线路修复方法

    5G 大规模物联网系统级封装 skyworksinc

    电子发烧友网为你提供()5G 大规模物联网系统级封装相关产品参数、数据手册,更有5G 大规模物联网系统级封装的引脚图、接线图、封装手册、中文资料、英文资料,5G 大规模物联网系统级封装真值表,5G
    发表于 04-11 15:21
    5G <b class='flag-5'>大规模</b>物联网系统级封装 skyworksinc

    STM32如何移植Audio框架

    最近在学习音频解码,想用下Audio框架。 1、这个该如何移植到自己创建的BSP并对接到device框架中?看了官方移植文档没有对没有对该部分的描述。
    发表于 04-01 08:08

    .NET开发者必看:JetBrains Rider Tasks(任务)视图功能解析与演示教程

    此前,JetBrains Rider推出了Tasks(任务)视图功能,为 .NET 开发者带来强大的任务管理和调试工具。该功能已在JetBrains Rider 2024.2 EAP中上线。欢迎联系JetBrains授权合作伙伴
    的头像 发表于 02-27 17:22 ?458次阅读
    .<b class='flag-5'>NET</b>开发者必看:JetBrains Rider Tasks(<b class='flag-5'>任务</b>)视图功能解析与演示教程

    BEVFusion —面向自动驾驶的多任务多传感器高效融合框架技术详解

    和高效融合机制,解决了多模态传感器在几何与语义任务中的权衡问题,成为自动驾驶多任务感知的标杆框架其设计范式为后续研究提供了重要启发 ?**“统表示+轻量优化”是多模态融合的核心方向*
    的头像 发表于 02-26 20:33 ?3940次阅读
    BEVFusion —面向自动驾驶的<b class='flag-5'>多任务</b>多传感器高效融合<b class='flag-5'>框架</b>技术详解

    小米澄清年底大规模裁员传闻

    近日,网络上流传着条关于小米公司将在年底进行大规模裁员的传闻,引起了广泛关注。针对这传闻,小米集团公关部总经理王化在个人社交平台上进行了正式回应,以澄清事实。 王化指出,有关小米年底将进行
    的头像 发表于 12-26 10:46 ?582次阅读

    时空引导下的时间序列自监督学习框架

    考虑各个序列之间的关系。因此,本文提出的方法更适合作为时空预测领域的预训练模型。下面为大家详细介绍下这篇文章。 摘要 相关时间序列分析在许多现实行业中扮演着重要的角色。为进步的下游任务学习
    的头像 发表于 11-15 11:41 ?796次阅读
    时空引导下的时间序列自监督<b class='flag-5'>学习</b><b class='flag-5'>框架</b>

    NPU与机器学习算法的关系

    紧密。 NPU的起源与特点 NPU的概念最早由谷歌在其TPU(Tensor Processing Unit)项目中提出,旨在为TensorFlow框架提供专用的硬件加速。NPU的设计目标是提高机器学习算法的运行效率,特别是在处理大规模
    的头像 发表于 11-15 09:19 ?1320次阅读

    浅谈适用于大规模充电场站的深度强化学习有序充电策略

    随着新能源汽车销量的快速增长,大规模充电场站的建设需求日益凸显。据乘联会销量数据显示,2017年中国新能源乘用车销量达到了57.6万台,位列全球,且保持着较高的增长率。中国汽车工业协会预计,2018年新能源汽车销量将超过100万辆。然而,大规模充电场站面临着诸多挑战。
    的头像 发表于 11-13 10:55 ?713次阅读
    浅谈适用于<b class='flag-5'>大规模</b>充电场站的深度强化<b class='flag-5'>学习</b>有序充电策略

    使用EMBark进行大规模推荐系统训练Embedding加速

    推荐系统是互联网行业的核心系统,如何高效训练推荐系统是各公司关注的核心问题。目前,推荐系统基本上都是基于深度学习大规模 ID 类模型,模型包含数十亿甚至数百亿级别的 ID 特征,典型结构如图 1 所示。
    的头像 发表于 10-31 14:46 ?803次阅读
    使用EMBark进行<b class='flag-5'>大规模</b>推荐系统训练Embedding加速

    【「大模型时代的基础架构」阅读体验】+ 第、二章学习感受

    每个核心在某时刻只能执行线程。CPU的设计注重的是低延迟,即快速响应和处理单个任务。而GPU则不同,它拥有成百上千更小、更专
    发表于 10-10 10:36

    生成式人工智能产品大规模应用的七启示

    尽管微软在构建人工智能应用方面早已制定了系列原则和流程,以尽最大可能减少意外伤害并为用户提供他们所期望的体验。但是,生成式人工智能产品的大规模应用,无疑也带来了前所未有的新挑战与新机遇。
    的头像 发表于 08-20 10:09 ?828次阅读