正文
一些公司已经在把深度学习集成进自己的日常流程当中。微软研究院负责人 Peter Lee 说:“我们的销售团队正在利用神经网络推荐该联络哪一位潜在客户,或者作出什么样的产品推荐。”
硬件界已经感受到这种震动。
让所有这一切成为可能的计算能力发展不仅仅是得益于摩尔定律的延续,而且还有 2000 年代末 Nvidia 做出图形处理器的帮忙——这种强大的芯片原本是为了给玩家提供丰富的 3D 视觉体验——但大家意外发现,在深度学习计算方面,其效率要比传统 CPU 高出 20 到 50 倍。今年 8 月,Nvidia 宣布其数据中心业务的季度收入与去年同比已经翻了一番多,达 1.51 亿美元。其 CFO 告诉投资者“目前为止绝大部分增长来自于深度学习。”在时长 83 分钟的电话会当中,“深度学习”这个词就出现了 81 次。
芯片巨头英特尔也没有闲着。过去 2 个月它一口气(以超过4亿美元)收购了Nervana Systems 和 Movidius(价格未披露),这两家公司的技术都是针对不同阶段的深度学习计算量身定制的。
至于 Google,今年 5 月,它披露了自己已经秘密采用自行设计的定制芯片 TPU(Tensor Processing Unit)一年多了,这种芯片正是给经深度学习训练的应用使用的。(Tensor 是类似矩阵一样的数组,在深度计算中往往要进行相乘运算)
的确,企业可能已经到达了另一个拐点。百度首席科学家吴恩达说:“在过去,许多标普 500 强 CEO 希望自己能早点意识到互联网战略的重要性。我想从现在开始的今后 5 年也会有一些标普 500 强 CEO 后悔没有早点思考自己的 AI 战略。”
其实在吴恩达看来,互联网这个比喻已经不足以形容 AI 及深度学习的隐含意义。他说:“
AI 就是新的电力。仅仅 100 年前电力变革了一个又一个行业,现在 AI 也会做同样的事情。
”
可以把深度学习视为一个子集的子集。“人工智能”涵括的技术范围很广——比如传统的逻辑学、基于规则的系统——这些能帮助计算机和机器人至少用类似思考的方式解决问题。在这个领域里面还有一个更小一点的类别叫做机器学习,这是一整个神秘但又重要的数学技术工具箱的总称,它可以帮助机器改进需要经验的任务表现。最后,在机器学习这个门类当中还有一个更小的子集叫做深度学习。
吴恩达说,我们可以把深度学习看做是“从 A 到 B 的映射。你可以输入一段音频剪辑然后输出脚本。这就是语音识别。”他强调,只要你有可以训练软件的数据,就有无限可能:“你可以输入电子邮件,而输出可以是:这是垃圾邮件吗?”输入贷款申请,输出可能是目标客户偿还贷款的可能性。输入车队的使用模式,输出可以是发车去到哪里的建议。
人工智能术语表
人工智能
AI 是个广义概念,用于任何让计算机模仿人类智能、利用逻辑、假定规则、决策树以及机器学习(含深度学习)的技术
机器学习
含有深奥的统计技术的 AI 子集。这种统计技术可让机器改进需要经验的任务。深度学习属于机器学习。
深度学习
机器学习子集包括了让软件可以训练自己执行任务(如云和图像识别)的算法,手段是让多层神经网络接受海量数据。
在这样的愿景下,深度学习几乎可以变革任何行业。Google Brain 项目负责人 Jeff Dean 说:“将会发生的根本性改变是现在计算机视觉真正可以工作了。”或者用他的话说:“现在计算机已经睁开了它们的眼睛。”
这是否意味着是时候拥抱“奇点”了呢?(所谓奇点是指这样的一个假设时刻,到那时超智机器将可以在无需人类干预的情况下自我改进,从而引发一个逃逸周期,导致进化缓慢的人类被抛开得越来越远,产生恐怖的后果)
还没有。神经网络擅长模式识别——有时候表现得跟我们人类一样好甚至更佳。但它们不懂推理。
即将发生的革命的第一个火花是在 2009 年开始闪烁的。那年夏天,微软研究院邀请了神经网络先驱,多伦多大学的 Geoffrey Hinton 前往参观。由于对他的研究感到印象深刻,Lee 的团队开始试验用神经网络进行语音识别。Lee 说:“我们被结果惊到了。我们用非常早期的原型就实现了精确度提高 30%。”
据 Lee 说,2011 年,微软把深度学习技术引入到自己的商用语音识别产品上。2012 年,Google 开始跟进。
但是真正的转折点发生了 2012 年 10 月。在意大利佛罗伦萨的一场研讨会上,斯坦福 AI 实验室负责人,著名的计算机视觉竞赛 ImageNet 创始人李飞飞宣布,Hinton 的两位学生已经发明了一种软件,这种软件识别对象的精确率几乎是最接近对手的 2 倍。Hinton 认为“这是一个非常惊人的结果,令此前许多对此表示质疑的人都信服了。”(去年的竞赛上一家深度学习的参赛选手已经超越了人的识别率。)
攻破图像识别打响第一枪,这激起了一场人才争夺战。
Google 把 Hinton 和赢得那场竞赛的两名学生都请了过来。Facebook 签下了法国的深度学习创新者 Yann LeCun,他在 1980 年代和 1990 年代是赢得 ImageNet 竞赛的某种算法的先驱。而百度则抢下了吴恩达。吴曾是前斯坦福 AI 实验室的负责人,2010 年曾帮助推出并领导了以深度学习为核心的 Google Brain 项目。
此后这场人才争夺战开始变本加厉。微软研究院的 Lee 说,今天“这个领域正在上演一场抢夺人才的血腥战争。”他说这方面顶级人才的报价“堪比一线的 NFL 选手。”
现年 68 岁的 Geoffrey Hinton 是在 1972 年的时候第一次听说神经网络的,当时他正在爱丁堡大学做人工智能方向的毕业设计。在剑桥大学学习了实验心理学之后,Hinton 开始狂热地恋上了神经网络,这是一种灵感源自大脑神经元工作方式的软件设计。在当时,神经网络还没有得宠。他说:“每个人都认为这种想法疯了。”但 Hinton 仍然坚持他的努力。
神经网络有望让计算机像小孩一样从经验而不是通过人工定制编程的繁杂指令来学习。他回忆道:“那时候大部分的 AI 都是逻辑启发的。但逻辑是大家很晚才学会的东西。2、3 岁的小孩是不懂逻辑的。所以在我看来,就智能的工作方式而言,相对于逻辑,神经网络是一种要好得多的范式。”
在 1950 和 1960 年代,神经网络在计算机科学家当中非常流行。1958 年,康奈尔大学心理研究学家 Frank Rosenblatt 在一个项目中首次搭建了神经网络原型,他把这个得到海军资助的项目叫做 Perceptron。项目使用的穿孔卡片计算机体型巨大,占满了整整一个房子。经过 50 次试验之后,它学会了区分在左右侧做记号的卡片。当时的《纽约时报》是这么报道此事的:“海军披露了一台电子计算机的雏形,将来这台计算机预期可以走路、说话、写字以及复制自己,并且能意识到自己的存在。”