专栏名称: 人工智能头条
专注人工智能技术前沿、实战技巧及大牛心得。
目录
相关文章推荐
爱可可-爱生活  ·  OpenAI o3-pro 全面点评 ... ·  13 小时前  
宝玉xp  ·  回复@dingtingli:哈哈,确实是“苦 ... ·  昨天  
爱可可-爱生活  ·  【[216星]Chatterbox-TTS- ... ·  昨天  
51好读  ›  专栏  ›  人工智能头条

【AI创新者】IBM宋煜:Watson之外的第二条AI通路

人工智能头条  · 公众号  · AI  · 2017-04-11 19:37

正文

请到「今天看啥」查看全文


这过程中肯定会有波折, 比如在数学层面上,我们目前利用概率来解决大多数问题,或许概率不能解决所有问题,那就需要有一些新的方法出来 。不过,我觉得未来大的方向一定会大量通过人工智能解决现在工业生产生活中的大部分问题。不管怎么说,深度学习的确是离实际应用更近了,现在不管是自动驾驶也好、基于深度学习的安防也好、制造业的产品检测也好,我们已经看到很多实际应用的出现,未来会有更多,这是趋势。 并且,我们能看到很多传统行业也已经开始使用人工智能,这是市场越来越大的一个标志。

CSDN:您刚才提到了GPU的发展为人工智能带来了革命性的改变,那么CPU+GPU这种合作模式,为什么能改变以往不能解决的问题?

宋煜: 其实CPU+GPU这种模式很大程度上还是依赖GPU的发展,因为真正的训练工作都是在GPU上进行,那么CPU的作用在哪里?实际上不管是并行化训练还是训练过程中的一些迭代情况,CPU都要参与一部分的工作。当然现在也有很多GPU to GPU的方式, 之所以大家不选GPU to CPU,更多地是在考虑带宽的问题。

我们这次大赛使用的IBM Power8+Nvidia P100的架构,因为我们的Nvlink可以在CPU-GPU的通信中也提供GPU to GPU一样的带宽,那么在这种情况下我们就有了更多的发挥余地。 比如PowerAI的framework里有一套IBM Caffe,我们有一项专利技术在里面,我们可以在Gradient的计算过程中,将一部分层通过GPU到CPU的通道直接返回回来,而不用等到GPU计算完整的Gradient后,才做一次数据交换。 相比于计算完全部层的Gradient再做Reduce操作的方式,这样的方式大大减少了等待时间,减少了延时。实际上在整个性能上会比在BVLC的标准的Caffe上的训练的GPU to GPU的方式要快15%到20%。特别是模型越大,这个优势就越明显,而模型大也是现在一个发展的趋势。 随着模型层数越来越多,GPU加CPU的优势会越明显。 GPU+CPU肯定是一种很好的编程模型,会在整个人工智能领域有一个很长足的发展。

CSDN:IBM在AI领域未来会有哪些布局?

宋煜 :这个问题相对比较大一点,大家都知道IBM在人工智能方面最主要的品牌是Watson。Watson更像是在人工智能领域里的一个完整的方案,它能提供天气、医疗、交通等各方面的分析和解决方案。 用户不一定需要自己做神经网络的训练,通过调用Watson的接口就能够直接使用。 同时我们考虑到有一些用户会有保密性相关的需求,可能想要有自己的专利的考虑,那么对于这些用户,他们更希望我们提供一个平台,让他们在这个平台上去做个性化的设计,这就是Power Systems要解决的问题。硬件加上Power AI的一套Framework再加上Blue Mind软件,这一套方案结合起来使用户专注于他们自己的业务模型的训练分析。 所以说IBM会有两个大的方向,对于行业来说我们有很多深度学习解决方案可以直接使用,如果用户想要自己做,也没问题,我们有也有一套完整的解决方案。







请到「今天看啥」查看全文