专栏名称: 扑克投资家
扑克财经旗下品牌,实体产业和金融领域第一新媒体平台。专注于挖掘行业、公司、人物等深层次内容,同时关注金融领域、企业相关的业务实操,服务于实体产业和金融人群,专为变革者打造。
目录
相关文章推荐
第一财经  ·  钟南山:不要慌 ·  昨天  
第一财经  ·  “手慢无”!发行首日直接“秒光” ·  昨天  
第一财经  ·  美国CDC疫苗顾问组被“一锅端” ·  2 天前  
51好读  ›  专栏  ›  扑克投资家

终极进化,下一场革命:深度起底人工智能,两万字重磅分析

扑克投资家  · 公众号  · 财经  · 2017-04-05 20:57

正文

请到「今天看啥」查看全文


百度深度学习的四大直接应用本质上都是实现分类识别功能


3、人工神经网络从最基本的单元上模拟了人类大脑的结构和运行机制(虽然目前还是低级的模仿),理论上讲人脑能够实现的智能它应该也都能实现。数学上也证明了用3层以上人工神经网络模型,理论上可逼近任意函数。

深度学习迅猛发展的历史背景

深度学习名称的由来。人工神经网络算法在60年代曾经遭遇低谷,著名人工智能专家明斯基当时提出了人工神经网络的两个局限性:

1、单层的人工神经网络甚至连最简单的异或运算都无法实现;

2、多层更复杂的人工神经网络当时的计算能力却无法支撑。


20世纪90年代开始,随着处理器计算能力突飞猛进和云计算技术使得大量计算机并行计算成为可能后,限制大规模人工神经网络的计算能力瓶颈开始逐步消除。即便如此,主流机器学习界对于人工神经网络仍然兴趣寡然,一直坚持人工神经网络研究的加拿大多伦多大学教授、机器学习领域的泰斗Geoffrey Hinton后来为了改变大众对于人工神经网络的长期的消极态度,干脆将其改名为深度学习(deep learning),而其多层抽象的数据学习过程一定程度上借鉴了人类的视觉机制。


人类视觉从原始信号摄入开始(瞳孔摄入像素),接着做初步处理(大脑皮层某些细胞发现边缘和方向),然后抽象(大脑判定,眼前的物体的形状),然后进一步抽象(大脑进一步判定该物体是人脸)


一篇论文引发新的浪潮


2006年,Geoffrey Hinton和他的学生Ruslan Salakhutdinov在国际顶级期刊《科学》上发表了一篇文章,被认为是深度学习取得突破的重要节点。这篇文章实质上一是讲明了深度学习在描述数据本质上广泛的应用前景,二是给出了多层深度神经网络的很好的训练方法,让大众充分认识到 深度学习大规模应用的时代开始来临,开启了深度学习在学术界和工业界的浪潮。 而Geoffrey Hinton连同他的实验室DNN research很快被谷歌收购。

深度学习在谷歌各项业务中迅速应用效果惊人。在谷歌内部,深度学习从少数的产品组应用起步,一开始就取得了非常大的突破(首次应用到语音识别错误率就降低了30%),更多的团队开始采纳深度学习算法,目前谷歌内部使用深度学习的产品有:安卓、Apps、药品发现、Gmail、图片理解、地图、自然语言、图片、机器人、语音翻译等。全球著名的谷歌大脑其实质上就是一个大规模的人工神经网络,它实现了对谷歌各项业务的智力支撑。


深度学习已经应用到谷歌的各项业务中去


人工智能发展历程:在两次高潮和低谷之后迎来第三次浪潮

人工智能作为一门学科诞生至今已有60年的历史,期间经历了2次高潮和低谷。而从2010年到现在又迎来人工智能发展的第三次浪潮。人工智能60年的发展,道路虽然起伏曲折,但进展也可谓硕果累累。无论是基础理论创新,关键技术突破,还是规模产业应用,都是精彩纷呈,使我们每一天无不享受着这门学科带来的便利。人工智能因其十分广阔的应用前景和对一个国家的重大战略意义,近年来日益得到政府部门、学术界的高度关注。



(1)1956年达特茅斯会议:人工智能学诞生

1956年夏,达特茅斯学院助教约翰·麦卡锡(John Mc Carthy)、哈佛大学马文·明斯基(Marvin Minsky)、贝尔电话实验室克劳德·香农(Claude Shannon)、IBM公司信息研究中心纳撒尼尔·罗切斯特(Nathaniel Rochester)、卡内基梅隆大学艾伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)等先驱在美国达特茅斯学院行了以此为其两个月的学术讨论会,从不同学科的角度探讨用机器模拟人类智能等问题,并首次提出了人工智能的概念,达特茅斯会议上AI的名称和任务得以确定,同时出现了最初的成就和最早的一批研究者,因此标志着人工智能学科的诞生。


人工智能发展历程第三次浪潮


(2)1956年至1974年:人工智能的第一次大发展

1956年达特茅斯会议之后的十几年是人工智能的黄金年代。从50年代后期到60年代涌现了大批成功的AI程序和新的研究方向,其中最有影响力的包括搜索式推理、自然语言、微世界等。在这段时间内,计算机被用来解决代数应用题、证明几何定理、学习和使用英语。初期研究取得了显著的成果,这些成果在得到广泛赞赏的同时也让研究者们对开发出完全智能的机器信心倍增。

1963年6月,MIT从新建立的ARPA(即后来的DARPA,国防高等研究计划局)获得了220万美元经费,用于资助MAC工程,其中包括Minsky和McCarthy五年前建立的AI研究组。此后ARPA每年提供三百万美元,直到七十年代为止,在麻省理工、卡内基梅隆大学、斯坦福大学、爱丁堡大学建立的人工智能项目都获得了来自ARPA等政府机构的大笔资金,在接下来的许多年间,这四个研究机构一直是AI学术界的研究(和经费)中心。不过,这些投入却并没有让当时的乐观预言得以实现。

人工智能发展历程:从萌芽到爆发


(3)1974年至1980年:人工智能的第一次低谷

70年代初,人工智能遭遇了瓶颈。由于计算机性能的瓶颈、计算复杂性的指数级增长、数据量缺失等问题,AI研究者们遭遇了无法克服的基础性障碍。例如,在今天已经比较常见的机器视觉功能在当时找不到足够大的数据库来支撑程序学习,机器无法吸收足够的数据量,因此很难实现视觉方面的智能化。

由于缺乏进展,对人工智能提供资助的机构(如英国政府,DARPA和NRC)对无方向的AI研究逐渐停止了资助。到了1974年已经很难再找到对人工智能项目的资助,研究经费被转移到那些目标明确的特定项目上。人工智能遭遇了6年左右的低谷。

1969年Minsky和Papert出版了著作《感知器》,书中暗示感知器具有严重局限,而感知器是神经网络的一种形式,它最终将能够学习,做出决策和翻译语言。这本书的影响是破坏性的,联结主义的研究因此停滞了十年。到1970年代后期,尽管遭遇了公众的误解,人工智能在逻辑编程、常识推理等一些领域还是有所进展。

(4)1980年至1987年:人工智能的第二次大发展

在80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,知识库系统和知识工程成为了80年代AI研究的主要方向。专家系统是一种程序,能够依据一组从专门知识中推演出的逻辑规则在某一特定领域回答或解决问题。专家系统仅限于一个很小的知识领域,从而避免了常识问题;其简单的设计又使它能够较为容易地编程实现或修改,实践证明了这类程序的实用性。

1980年卡内基·梅隆大学为DEC(Digital Equipment Corporation,数字设备公司)设计了一个名为XCON的专家系统,这套系统在1986年之前能为公司每年节省四千万美元。全世界的公司都开始研发和应用专家系统,到1985年它们已在AI上投入十亿美元以上,大部分用于公司内设的AI部门。为之提供支持的产业应运而生,其中包括Symbolics,LispMachines等硬件公司和IntelliCorp,Aion等软件公司。

1981年,日本经济产业省拨款8.5亿美元支持第五代计算机项目,目标是制造出能够与人对话、翻译语言、解释图像,并且能像人一样推理的机器。随后,英国、美国也纷纷响应,开始向AI和信息技术领域的研究提供大量资金。

1986年,人工智能领域著名的BPAlgorithm(ErrorBack Propagation Algorithm,误差反向传播算法)被Rumelhart Mc Celland等大师提出,这使1970年以来一直遭人遗弃的联结主义重获新生。

(5)1987年至1993年:人工智能的第二次低谷

1987年AI硬件市场需求突然下跌。Apple和IBM生产的台式机性能不断提升,到1987年时其性能已经超过了Symbolics和其他厂家生产的昂贵的Lisp机。老产品失去了存在的理由:一夜之间这个价值五亿美元的产业土崩瓦解。XCON等最初大获成功的专家系统维护费用居高不下,暴露出各种问题,专家系统的实用性仅仅局限于某些特定情景。

到80年代晚期,战略计算促进会大幅削减对AI的资助。1991年,人们发现十年前日本人宏伟的“第五代工程”并没有实现。这些事实情况让人们从对“专家系统”的狂热追捧中逐步走向失望。人工智能研究再次遭遇寒冬。

尽管遇到各种批评,这一领域仍在不断前进。来自机器人学这一相关研究领域的RodneyBrooks和HansMoravec提出了一种全新的人工智能方案,号召“自底向上”地创造智能,他们认为感知运动技能对于常识推理等高层次技能是至关重要的。

(6)1993年至2010年:人工智能复苏期

1993年到2010年这一阶段,人工智能处于稳步发展时期,互联网推动人工智能不断创新和实用。

人工智能已被成功地用在技术产业中,取得了一些里程碑式的成果:1997年5月,IBM研发的计算机“深蓝”(Deep Blue)战胜了国际象棋冠军卡斯帕罗夫;2005年,Stanford开发的一台机器人在一条沙漠小径上成功地自动行驶了131英里,赢得了DARPA挑战大赛头奖;2009年,洛桑联邦理工学院发起的蓝脑计划声称已经成功地模拟了部分鼠脑。

2008年11月IBM提出“智慧地球”概念,数字化、网络化和智能化,被公认为是未来社会发展的大趋势,而与“智慧地球”密切相关的物联网、云计算等,更成为科技发达国家制定本国发展战略的重点。自2009年以来,美国、欧盟、日本和韩国等纷纷推出本国的物联网、云计算相关发展战略。


深度学习的效果随着数据量的增大显提升


(7)2010年到现在:人工智能进入爆发式增长期

大数据、云计算支撑人工智能产业爆发,人工智能将成为下一轮技术变革的核心。

人工智能新一轮的爆发包括大数据、云计算和算法三个核心要素。

第一,数据的急剧增长。
得益于互联网、社交媒体、移动设备和廉价的传感器,这个世界产生的数据量指数型增长。大数据是人工智能发展的助推剂,这是因为有些人工智能技术使用统计模型来进行数据的概率推算,比如图像、文本或者语音,有了大量的数据才能为模型的训练提供原材料。

第二,计算能力的进步。 云计算和大规模GPU并行计算的发展为深度学习的应用提供了计算基础。当人们把原本用于游戏中处理高质量画面的GPU拿来运行深度学习算法后,计算机可以几百倍地加快模型的训练速度。目前,AlphaGo的计算能力是IBM深蓝的近3万倍。未来随着速度更快的芯片乃至量子计算的发展,运算速度会进一步提高,成本也会大幅降低。

第三,算法的发展,特别是深度学习的应用。 算法是解决一个设计程序或完成任务的路径方法。与大部分传统算法相比,深度学习的效果随着数据量的增大有显著的提升,因而更大量的数据可以提高算法的表现。深度学习增加了神经网络的层数,因此网络才有了更强大的特征挖掘能力。机器学习算法目前被开源使用,这种情形将促成更大进步,因为在开源环境下开发人员可以补足和增强彼此的工作。







请到「今天看啥」查看全文