0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

近三年技术和产业发展的回顾,再论“深度学习已死

DPVg_AI_era ? 来源:lq ? 2019-01-14 08:58 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

本文结合了近三年技术和产业发展的回顾,再论“深度学习已死”。作者认为,深度学习对于大多数问题来说不是正确方法,无法为所有问题寻找一个通用AI解决方案。

许多人认为,算法能以认知意识超越人性。机器可以在没有人工干预的情况下了解和学习任务,并大规模地替换人类工人。它们完全可以“思考”。许多人甚至提出我们是否可以将机器人视作配偶的问题。

但我今天不是讨论这些。如果我告诉你这些想法在20世纪60年代时就已广泛流传,AI先驱Jerome Wiesner、Oliver Selfridge和克劳德·香农(Claude Shannon)都曾坚持认为这在不久的将来就会发生,你怎么想?如果你对此感到惊讶,请看看下面这个视频,你会惊讶于这些情绪是多么的熟悉。

快进到1973年,AI的炒作和夸大适得其反。英国议会派数学家詹姆斯·莱特希尔爵士(Sir James Lighthill)编写英国人工智能研究的现状报告。该报告对AI研究的许多核心方面给出了非常悲观的预测,指出 “在该领域的任何部分迄今为止都没有产生重大影响”。有趣的是,莱特希尔还指出专门的程序(或人类)如何比他们的“AI”同行表现得更好,以及AI如何在现实环境中没有前景。因此,英国政府取消了所有的AI研究经费。

Lighthill Debate, BBC, 1973

在大西洋彼岸,美国国防部曾在AI研究上投入巨资,但后来又因为同样的挫折取消了几乎所有的资助:对AI能力的夸大,高成本却没有回报,以及AI在现实世界中的价值令人怀疑。

在20世纪80年代,日本在“AI”上进行大胆的尝试,推出“第五代电脑项目”(Fifth generation computer)。然而,这最终也只是造成了8.5亿美元的损失。

第一个AI冬天

80年代末出现了AI冬天(AI Winter),这是计算机科学的一个黑暗时期,“人工智能”研究给组织和政府带来沉没成本。这种失败使人工智能研究停滞了数十年。

到了1990年代,“AI”成了一个贬义词,这种情况持续到2000年代。人们普遍认为“AI根本不能起作用”。编写看似智能的程序的软件公司会使用“搜索算法”、“业务规则引擎”、“约束求解器”和“运算研究”等术语。值得一提的是,这些有用的工具的确来自AI研究,但由于未能实现更宏伟的目标,它们被打上了非AI的标签

但在2010年前后,情况开始发生变化。人们对AI的兴趣再次迅速增长,图像分类竞赛引起了媒体的大量关注。硅谷拥有大量的数据,这是第一次有足够的数据足以使神经网络变得有用。

到2015年,“AI”研究已成为许多财富500强企业的巨额预算去向,他们担心自己会被自动化竞争对手甩在后面。毕竟,让一个神经网络来识别图像中的物体真的令人印象深刻!对于外行来说,下一步肯定就是天网能力了。

但这真的是迈向真正的人工智能的一步吗?或许历史在重演,但这一次确实是受到了一些成功用例的鼓舞。

AI的定义不断发展,经常与“神经网络”联系在一起

很长一段时间以来,我一直不喜欢“AI”这个词。它是模糊而遥远的,它更多的是由营销人员而不是科学家定义的。当然,营销和流行语对于刺激积极的变革和接受新思维是必要的。然而,流行语不可避免地会导致混淆。我的新智能手机有一个“人工智能铃声”(AI Ringtone)功能,可以动态地调节铃声音量,使其刚好超过环境噪音。我猜可以用一系列“if”语句或简单的线性函数来编程的东西都被称为“AI”。

鉴于此,“AI”的定义受到广泛争议或许就不足为奇了。我喜欢Geoffrey De Smet的定义,它指出AI解决方案是针对具有不确定性答案和/或不可避免的误差范围的问题。在这个定义下,AI包括大量的工具,从机器学习到概率到搜索算法。

也可以说,AI的定义在不断发展,但只包括突破性的发展,而过去的成功(如光学字符识别或语言翻译)不再被认为是“AI”。因此,“AI是一个相对的术语,而不是绝对的。

近年来,“AI”经常与“神经网络”联系在一起,这也是本文的重点。其他的“AI”解决方案,包括其他机器学习模型(朴素贝叶斯、支持向量机、XGBoost),搜索算法,等等。然而,神经网络可以说是目前最热门、最经常被炒作的技术。

AI文艺复兴?

2010年之后AI热潮的复苏,仅仅是因为AI掌握了一类新的任务:分类。更具体地说,是多亏了神经网络,科学家们已经开发出有效的方法来对大多数类型的数据进行分类,包括图像和自然语言。甚至自动驾驶汽车也属于一种分类任务,其中周围道路的每个图像都可以转化为一组独立的动作(加油、刹车、左转、右转等)。

在我看来,自然语言处理比单纯的分类更令人印象深刻。人们很容易相信这些算法是有感知能力的,但如果你仔细研究算法,就会发现它们依赖于语言模式,而不是依赖于有意识构建的思想。这些可以带来一些有趣的结果。

Google Duplex可能是最令人印象深刻的自然语言处理技术,它能让你的Android手机代替你打电话,甚至进行预约。但是,Google Duplex是仅仅为了完成这个任务而训练、构造甚至硬编码的“AI”。当然,Google Duplex打的电话听起来很自然,有停顿,有“啊”和“嗯”……但是,这也是通过对语音模式的操作来实现的,而不是通过实际的推理和思考。

这一切都非常令人印象深刻,并且肯定有一些是有用的应用程序。但我们确实需要调整我们的期望值,停止炒作夸大“深度学习”能力。如果不这样做,我们可能会发现我们进入了另一个“AI冬天”。

历史总是在重演

康奈尔大学的Gary Marcus写了一篇关于深度学习局限性的文章,并提出了几个发人深省的观点。Rodney Brooks也写了一篇文章,整理了时间轴,并通过引用的研究跟踪他对AI炒作周期的预测。

怀疑论者通常有几个共同观点。神经网络需要大量的数据,即使在今天,数据也是有限的。这也是为什么你在YouTube上看到的“游戏”AI的例子经常需要几天不断的训练,并且不断地失败,直到神经网络找到一个让它获胜的模式。

神经网络之所以“深”,是因为它们在技术上有很多层的节点,而不是因为它对问题的理解有多深刻。这些层也使得神经网络难以理解,甚至对它的开发者来说也是如此。最重要的是,当神经网络冒险进入其他问题空间(如旅行推销员问题)时,它们的回报就会减少。这是有道理的。为什么我要用神经网络来解决旅行推销员的问题,明明搜索算法更加有效、可扩展而且成本低?当然,有些人希望将神经网络推广到更多问题空间,尽管这很有趣,但神经网络在这些问题上似乎很少能胜过任何专门的算法。

正如MIT教授Luke Hewitt所说:

仅仅基于一项任务,凭直觉去了解一台机器的智能范围有多广,或者它具备多少智能能力,这不是一个好主意。20世纪50年代的跳棋机器让研究人员感到惊讶,许多人认为这是AI走向人类水平推理的巨大飞跃,但我们现在意识到,在这个游戏中达到人类水平或超越人类水平远比实现人类水平的一般智能要容易得多。事实上,即使是最优秀的人也很容易被简单的启发式搜索算法打败。在一项任务中达到或超越人类的表现,不一定是能够在大多数任务中接近人类表现的垫脚石。

— Luke Hewitt

我认为同样值得指出的是,神经网络需要大量的硬件和能量才能进行训练。我认为这不是可持续的。当然,神经网络的预测效率要高得多。然而,我认为人们对神经网络的期待使得它需要不断的训练,因此需要指数级的能量和成本。当然,计算机是越来越快了,但是芯片制造商能继续维持摩尔定律吗?

正是由于这些原因,我认为另一个AI冬天即将来临。越来越多的专家站出来指出这些局限性。公司在争夺“深度学习”和“人工智能”人才方面仍然不遗余力,但我认为许多公司会意识到深度学习并不是它们需要的,这只是时间问题。更糟糕的是,如果你的公司没有谷歌那样高的研究预算,没有那么多的博士人才,或者没有能够从用户那里收集到大量数据,你很快就会发现实际的“深度学习”前景非常有限。

每一个AI冬季来临之前,科学家都会夸大它们的创造潜力。仅仅说他们的算法能很好地完成一项任务是不够的。他们希望AI能适应任何任务,或者至少能给人留下这样的印象。例如,AlphaZero是一种更好的国际象棋算法。媒体的反应是“天哪,通用AI来了。大家快跑!机器人来了!”而科学家们不是费心去纠正他们,而是鼓励他们使用更聪明的词语。毕竟,降低预期对VC融资没有帮助。

下一步是什么?

当然,并不是每一家使用“机器学习”或“人工智能”的公司实际上都在使用“深度学习”。一位优秀的数据科学家可能被雇来构建一个神经网络,但当他真正研究这个问题时,他会选择构建一个更适合的朴素贝叶斯分类器。对于那些已经成功地使用图像识别和语言处理的公司来说,他们将继续愉快地这样做。但我确实认为神经网络不会在其他问题空间取得进展。

上一个AI冬天对计算机科学的发展是毁灭性的。值得指出的是,这样的研究也产生了一些有用的东西,比如搜索算法,它可以有效地在国际象棋中获胜,或者用最小的成本解决交通问题。简单地说,创新的算法往往在某项特定任务上表现出色。

我想说的是,对于很多类型的问题,都有很多行之有效的解决方案。为了避免AI冬天,你能做的最好的事情就是把你试图解决的问题具体化,并理解它的本质。在此之后,寻找为特定问题提供解决方案的直观路径。比如,如果要对文本消息进行分类,可能需要使用朴素贝叶斯。如果要优化交通网络,可能应该使用离散优化。不管来自同行的压力有多大,你都可以带着适当的怀疑态度来处理复杂的模型,并质疑它是否是正确的方法。

希望这篇文章清楚地表明,深度学习对于大多数问题来说不是正确方法。不要为所有问题寻找一个通用AI解决方案,因为你找不到的。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    88

    文章

    35760

    浏览量

    282482
  • 人工智能
    +关注

    关注

    1810

    文章

    49221

    浏览量

    251554
  • 深度学习
    +关注

    关注

    73

    文章

    5569

    浏览量

    123089

原文标题:历史总是在重演,AI寒冬或再来

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    CES Asia 2025蓄势待发,聚焦低空经济与AI,引领未来产业新变革

    CES Asia 2025 第七届亚洲消费电子技术贸易展即将盛大开启,作为科技领域一一度的盛会,今年的 CES Asia 承载着更多的期待与使命,致力于成为前沿科技与未来产业深度融合
    发表于 07-09 10:29

    【「零基础开发AI Agent」阅读体验】+ 入门篇学习

    很高兴又有机会学习ai技术,这次试读的是「零基础开发AI Agent」,作者叶涛、管锴、张心雨。 大模型的普及是近三年来的一件大事,万物皆可大模型已成为趋势。作为大模型开发应用中重要组成部分,提示词
    发表于 05-02 09:26

    Wi-Fi FEM赛道

    转载自《钟林谈芯》 创业的路上起起落落,谁能挣脱失败的枷锁?当行业都认为Wi-Fi FEM赛道的时候,我该如何面对? 又是一天的客户拜访,早出晚归,身体有些疲惫。回到酒店房间后直接在沙发上躺平
    的头像 发表于 04-10 13:56 ?333次阅读
    Wi-Fi FEM赛道<b class='flag-5'>已</b><b class='flag-5'>死</b>?

    Nearfield或将三年内上市

    近日,备受淡马锡关注的荷兰芯片设备制造商Nearfield?Instruments传来重要消息。该公司首席执行官Hamed?Sadeghian在接受采访时透露,Nearfield计划在未来三年内实现
    的头像 发表于 02-14 14:13 ?422次阅读

    军事应用中深度学习的挑战与机遇

    人工智能尤其是深度学习技术的最新进展,加速了不同应用领域的创新与发展深度学习
    的头像 发表于 02-14 11:15 ?596次阅读

    嵌入式搞啥挣钱,干了三年好迷茫?

    三年前,怀揣着对电子技术的热爱,我踏入了嵌入式开发领域。那时的我,满心憧憬着能在这个充满挑战与机遇的行业里大展拳脚,创造出具有创新性的产品。然而,三年过去了,现实与理想的差距让我陷入了深深的迷茫。
    的头像 发表于 01-19 09:10 ?753次阅读
    嵌入式搞啥挣钱,干了<b class='flag-5'>三年</b>好迷茫?

    回顾2024度润和软件与openEuler的精彩瞬间

    2024是openEuler开源五周回顾这一里程碑时刻,作为openEuler项目群黄金捐赠人,江苏润和软件股份有限公司(以下简称“润和软件”)不仅深度参与并持续贡献,更在驱动
    的头像 发表于 01-07 18:12 ?1190次阅读

    广汽三年“番禺行动”深度解读

    近日,第22届广州车展拉开帷幕,广汽集团携旗下整车品牌重磅参展。在当天的新闻发布会上,广汽集团一口气发布了广汽三年“番禺行动”及款全新的新能源车型,给现场观众与媒体带来了极大的震撼。
    的头像 发表于 11-21 11:23 ?826次阅读

    NPU在深度学习中的应用

    随着人工智能技术的飞速发展深度学习作为其核心驱动力之一,已经在众多领域展现出了巨大的潜力和价值。NPU(Neural Processing Unit,神经网络处理单元)是专门为
    的头像 发表于 11-14 15:17 ?2179次阅读

    近三年国产手机2K屏市场:Redmi占比高达七成

    在过去三年中,国产手机行业对于屏幕素质的重视程度显著提升,各大厂商纷纷推出定制化的屏幕,使得屏幕质量的提升变得肉眼可见。特别是在旗舰机型上,各种新技术名词层出不穷,让消费者难以抉择哪家的屏幕最为出色
    的头像 发表于 11-05 16:12 ?2007次阅读

    激光雷达技术的基于深度学习的进步

    维空间信息。这使得激光雷达在自动驾驶、无人机、机器人等领域具有广泛的应用前景。 二、深度学习技术发展 深度
    的头像 发表于 10-27 10:57 ?1168次阅读

    AI大模型与深度学习的关系

    AI大模型与深度学习之间存在着密不可分的关系,它们互为促进,相辅相成。以下是对两者关系的介绍: 一、深度学习是AI大模型的基础 技术支撑 :
    的头像 发表于 10-23 15:25 ?3083次阅读

    高燃回顾|第届OpenHarmony技术大会精彩瞬间

    届OpenHarmony技术大会圆满落幕 全球开源精英齐聚 共同展示OpenHarmony技术、生态、人才的最新进展 见证OpenHarmony南北向生态繁荣 共绘开源生态发展蓝图
    发表于 10-16 18:47

    度亘核芯获评“三年光电子领域优秀创新成果”!

    近日,“2024第二届扬子江光电技术产业发展大会暨三年光电子领域优秀创新成果展”在南京盛大召开。经过光学工程学会组织专家的函评和会评,度亘核芯“通信级高功率单模980nm半导体激光芯
    的头像 发表于 10-16 08:08 ?1030次阅读
    度亘核芯获评“<b class='flag-5'>三年</b>光电子领域优秀创新成果”!

    FPGA做深度学习能走多远?

    电子领域,FPGA 可能需要在性能、成本和功耗之间进行更精细的平衡,以满足市场需求。 ? 市场竞争:随着深度学习市场的不断发展,其他技术(如 GPU、ASIC 等)也在不断进步和竞争。
    发表于 09-27 20:53