专栏名称: 中国人工智能学会
关注中国人工智能学会官方公共账号,收取学会的科普信息、新闻动态、活动预告及人工智能领域科技前沿信息。
目录
相关文章推荐
爱可可-爱生活  ·  【[399星]agent-rules:为AI ... ·  昨天  
爱可可-爱生活  ·  【[163星]robotic-mapping ... ·  昨天  
爱可可-爱生活  ·  本文提出了分支薛定谔桥匹配(BranchSB ... ·  昨天  
小互AI  ·  Anthropic研究报告:揭秘 ... ·  2 天前  
小互AI  ·  Anthropic研究报告:揭秘 ... ·  2 天前  
爱可可-爱生活  ·  【[87星]mcp-discord:为Dis ... ·  3 天前  
51好读  ›  专栏  ›  中国人工智能学会

演讲实录丨芮勇:PC^3的ABCD

中国人工智能学会  · 公众号  · AI  · 2017-05-23 18:05

正文

请到「今天看啥」查看全文



这个PC的第三次方,个性化计算最核心的技术,就是我们今天谈的人工智能。说到人工智能,其实有很多学派,我相信在座的朋友们很清楚,基本上有五个大的学派,包括符号学派,有决策树,专家系统。连接学派,今天上午都提到,深度学习,人工神经元网络,连接时代,这是从仿生学的角度发展的。有贝叶斯学派,做语音识别的都知道,HMM, GMM等等;有类推学派,最著名的代表就是十几年以前很热的,像今天深度学习一样热的,叫SVM,还有进化学派,这一派最近发展不是太好,另外几个都是一直在往前发展。这就是人工智能的几大学派。


上个月,在NATURE有一个书评,其实20年以前的5月份,就是深蓝打败卡斯帕罗夫,就是1997年的5月。卡斯帕罗夫写了一本书,叫deep thinking。Deepmind的Founder写了一个书评,发表在上个月的nature上,大家可以去看看,非常有意思的书评。这是当时的场景。Deepblue是1.4吨,32个并行处理器,但是它运算能力甚至不如现在的普通PC。这就是过去二十年产业界发生的非常非常大的变化。人工智能不仅仅是在国际象棋上战胜了人类,我们知道去年春天的时候,AlphaGo人机大战,在围棋上也战胜了人类,围棋其实是人类发明的最复杂的游戏,我们一直希望人类能多坚持几年,不让人工智能把我们打败。但是已经被打败了,即使它比国际象棋要复杂很多很多倍。下一周会在乌镇上演柯洁和 AlphaGo,其中有一场,应该是人类去群殴AlphaGo,好几个人一起打机器,看看最后结果怎么样,其实没有什么悬念。除了围棋,还有很多别的,比如德州扑克等等,特别是在有确定规则情况下,开放规则情况下人类还是很强大的。有详细规则的单一任务,人工智能还是非常强大的......


如果把人工智能做好的话,我总结了四个字母,把人工智能要做好,需要四个字母,ABCD。第一个就是A,算法,算法非常重要,B先跳过去,C就是计算力,D就是需要Data。回来再说B,因为我来自工业界,算法再厉害,再多的数据,有再好的模型,无论如何它是一个工具,我们怎么把人工智能的工具,把机器学习的工具和具体行业相结合,B就是一个具体的行业。我们要做智慧医疗,智慧城市,还是做某一件和垂直行业相结合的事情,这才是最重要的,这个时候人工智能才能落地,我和大家汇报和分享一下我对ABCD的一些粗浅想法。


把ABCD如果放在一个车上有这么几个部分,A是算法,相当于车的引擎,驱动车往前行驶,非常重要。B就是一个行业,就像车的方向盘一样,我们到底往哪个垂直行业走,很多垂直行业可以做,很多传统行业可以做,很多新兴行业可以做,但是和哪一个行业结合,怎么去落地。C就是算力,承载整个车。D,就是我们车里的油,就是我们的数据驱动,这就是车的ABCD。


先聊一下A,刚才说了五大学派,最早从1930年就开始了,之后每一个学派都有往前发展,从逻辑回归,大家非常熟,到1958年的Perceptron人工神经网络建立了,一直到90年代初的Kernel Trick,把SVM推到一个非常高的高度。再往下面,做语音的都用HMM,专家系统在八十年代末九十年代初昙花一现,看看今后还有没有希望再重新起来。深度学习在06年前后,从神经网络到深度学习有一个大的跨越,也是今天打败人类机器算法中的杰出的代表,这是算法。我们也想聊一下,从当年80年代人工神经网络到深度学习,有哪些大的的变化,我结合个人的经历,我最早接触人工神经网络是ANN,我还写过几篇文章,在80年代末90年代初。为什么那时候没有起来,那时候我在清华读研究生,大概90年91年,编了不少的算法,但是那时候没有起来。很多原因,一会结合我的ABCD和大家分享。首先这个算法本身当时不是很成熟,然后你做偏导的时候,到第二次的时候噪音非常大,当时算法不太成熟。一直进化到06年的时候,深度学习出来了,有很多不一样的地方,80年代末90年代初,就一层,一层隐含层,你当时自己要决定feature是什么,还有很多很多别的原因。过去十来年,很多深度学习的东西,像auto encoding,在80年代末的时候,怎么初始化人工神经网络非常重要,初始化错了就不行了。到最后,还有drop outs发展出来,它对overfitting非常有好处。前几年Residual network是把长期的很多层的学习记忆和跳过去的学习记忆相结合。一直到2014年的生成对抗网络,怎么生成非常逼真的数据,到近几年发生的Binary Network。我们今天可以在云上计算,可以在很强大的HPC上计算,如果用人工智能在手机或者IOT的小设备上做,怎么样把Model简化等等是一个方向,经过这二十多年的发展,确实有很多新方向出来,这是我讲的A这部分。人工智能做好,当然A是非常重要的,就像当年大家觉得SVM一统天下的时候,深度学习出来,又是上了一个新的台阶,不是一个线性的发展过程,而是一个台阶一个台阶的,所以算法是非常重要的。







请到「今天看啥」查看全文