正文
但在未来的十年,上述被列为“尚无可能”的部分,将至少可实现基本形式。
十年,就技术而言,是一个很长的时间窗口了。事实上有一些技术已经开始出现,只是目前在比较原始初级的阶段而已。
比如自驾车以及自驾式空中出租车,它们还是会出现的。尽管不会是超级智能,但肯定会越来越好。
但请注意,人工智能系统仍然是非常有限的智能系统。我相信,我的AI同事们也会赞同我的观点:
我们不太可能看到和人有同等智力的灵活性与创造性的AI系统。
首先,人类每时每刻都在以新的方式思考怎样用新的语言来表述,就像我现在讲的每一句话都是有创造性的,我在讲话中可以不断讲新的内容以及新的理念,使用隐喻、反讽等修辞。
在现实中,AI系统还做不到。
AI可以帮你做一些基础工作,比如帮你在网上订一张票,但是它无法和你谈人生。
此外,人类还非常善于做新的抽象推理。
比如,“Blank从上海走到杭州只花了3个小时”。作为人类,你会做很多推理:Blank会移动,而且从上海走到杭州只花了三个小时,它的运动速度一定很快。那么,你会针对Blank问很多问题。
但AI系统就做不到,它需要反复、重复用海量的数据才能得出一个答案。
最后,人非常擅长计划和规划。而
AI系统只是擅于捕捉目前的数据,而不可能对未来做出一个长期的、有条不紊的规划。
很多人在讲“超级人类AI”,这类人一定没有在AI领域工作过,他们根本就不知道AI领域中存在的技术问题有多难。
AI系统可以知道世界所有的城市、餐厅、电影院,然而它也只知道这些事实而已。
所以,我不相信所谓的“超级人类AI”,也不相信AI会比人更聪明。
人们觉得AlphaGo很厉害,是因为觉得一般玩围棋的人就很聪明了,那能打败玩围棋的人肯定更聪明。
这是有误解的。人知道怎么还贷款,上什么学校,怎么和同伴做智慧交流,这些事都是AlphaGo做不到的。
其实,AlphaGo只是通过无数对棋盘的模拟,非常机械地、不断重复地复盘,十几亿、几百亿次地进行学习。这背后没有什么创造力,只是无数次的重复工作。
所谓的“智能”,是我们根据参数汇集起来的数据算法,它们只能复制、模仿、模拟人类的行动,而不是真正的智能。说到底,相比我们真实的世界,围棋的复杂程度要低很多,因为真实的世界充满不确定性。
我觉得,有生之年不会出现这个奇点了。
那么,什么是值得大家担心的呢?
我前面讲到,所谓的超人类智能系统,我们是不应该担心的。而正好相反的是,
看似智能,实则不够智能的这些系统,却是值得我们警惕的。
很多媒体提到AI的时候,讲到的是视觉、语音的方面。但我们未来涉及到城市规划、推荐系统、医学诊断等,都不再是传统单一机器人的问题。
这是完全不同类型的问题。
一个机器人的某一错误我们是可以控制的。比如,机器人走到舞台边缘,探测到下面将有一个高度落差,它会知道停下来。
但如果是一系列问题呢?又或者,是很多机器人一起呢?
如果大楼发生火灾,这个机器人就不会知道该怎样逃出去。因为,这是一系列的决策,涉及到你从哪里转移到哪里,还需要和其他人的合作。
比如,大家都从同一个逃生通道出逃,就会出现堵塞,那么,就要选择换其他的道路。在这种情况下,机器人是做不到的,这样的算法是非常难的。
如果你用过去传统的机器人研发算法去应用到城市规划建设等领域,就会出现很多无法解决的重大问题:
1.
大规模多重相关决策的错误控制
搜索引擎给你一个错误的推荐建议,如果没有人因此死亡,就不会出现什么大错漏。顶多你会觉得这个搜索引擎不好用,再换一个就完了。
但假设这个推荐是医疗诊断意见呢?如果这个意见出现错误,那真的是会出人命的。而且,我们已经看到这件事情的发生了。
即便是在金融服务领域,一旦出现错误,也可能会引发市场的大动荡。交通也是如此,如果连公交走向都出现问题,就极有可能发生车辆碰撞,整个城市的交通陷入瘫痪。
因此,一旦扩大到这些领域,我们就不能再以传统应用到单一机器人的算法去做这种大规模的事情,必须要有新算法。
但事实上,在这一点上,我们远未达到。目前,我们所沿用的思路都是比较传统或通用的,并没有意识到在这个层级上还需要做很多事情。