正文
DeepMind创始人哈萨比斯刚刚发推文表示对乌镇对决充满期待
但现在的 AlphaGo 2.0 到底进化成什么样,恐怕只有比赛开始后才能一探究竟了。
2016 年 3 月,AlphaGo 1.0 在围棋人机大战中“一战成名”,以 4:1 的成绩打败韩国名将李世石九段——
这场胜利甚至可以说是开启了人工智能走向大众的新认知时代。
事后,李世石这样描述他与 AlphaGo 1.0 对战的感觉:
“面对毫无感情的对手是非常难受的,这让我有种再也不想跟它比赛的感觉” 。
值得一提的是,李世石当时还不知道谷歌为这一胜利准备了一个秘密武器——一种专属的机器学习处理器“张量处理单元”(Tensor Processing Unit, TPU)。在当时的比赛中,TPU 帮助 AlphaGo 1.0 更快地 “思考”、更好地预判局势。
在 2016 年 5 月份,谷歌首次证实了“TPU”的存在,但并没有披露相关的技术细节,外界只知道在谷歌街景、AlphaGo 等应用中用到了TPU。谷歌自己就称,在 AlphaGo 战胜李世石的比赛中,
AlphaGo 能够做出更快更准的判断,大部分功劳要归于TPU。
根据谷歌就在近日发布的论文显示,在功耗效率测试中,TPU目前的性能要优于常规的处理器
30 到 80 倍
;而同传统的GPU / CPU的计算组合相比 ,TPU的处理速度也要快上
15 到 30 倍
。最为关键的是,由于TPU的运用,就连深度神经网络所需要的代码数量也大幅的减少,
仅仅需要 100 到 1500 行代码就可以顺畅运行。
谷歌关于此次活动的宣传视频
DeepMind 创始人戴密斯·哈萨比斯今年 1 月 17 日出席 DLD(数字、生活、设计)创新大会上说:“AlphaGo 为谷歌公司节省了大量的电力消耗。谷歌数据中心每天的用电量惊人,我们就通过 AlphaGo 的算法合理配置冷却装置。结果用于冷却装置的能源消耗减少
40%
,从而使整个数据中心的总电力消耗减少了
15%
。”
可以想象,即便没有被“喂棋谱”,
如此强大配置之下的 AlphaGo 2.0 有可能将是柯洁难以超越的对手。