正文
赫拉利
:机器产生“意识”其实是非常难的。在科幻小说中,当机器变得非常“智能”时,它们其实也具备了“意识”,但这只是科幻小说,并不是真正的科学。
事实上,大多数人对“智能”和“意识”都区分不清,甚至有些计算机科学家也并不清楚两者的区别。
“智能”是解决问题的能力,而“意识”是感知事物的能力。
人类和其他的哺乳动物都是通过感知事物来解决问题,但计算机并不是这样的。我们在计算机的“智能”上有了很大的进展,但是在“意识”这一领域上的
进展
几乎为零。
5 月份,Alpha Go 再次战胜了人类的围棋冠军,围棋是非常需要智慧的游戏,但是却不需要任何的感知能力,在比赛中,机器不会有任何的焦虑感,即使赢了比赛,机器也不会有任何高兴的感受,这其中不涉及任何的意识和感觉。所以,我们没有道理认为人工智能在“意识”这一领域真正有进展。
我以前提及过“意识”的重要性,我说了人类有意识,所以人类才能知道、面对那些强大的能量。让计算机产生“意识”并不一定能办到,因为我们自己都不是很清楚人类的意识到底是怎么来的,所以要让计算机也学会意识,这很难。
但是如果我们真的能够让计算机成为有意识的个体,能感受到疼痛、痛苦,我们就要从人工的角度来考虑,如何对待这些有意识的个体。
最开始,你不会把它当成有意识的人,而只会把它视为物体和工具,因为它们可能会像飞机、汽车一样贵,但是它没有办法感知,意识总是伴随着感知而来的,我们需要从人工方面来创造这些感知。
您认为谁有权力决定如何对待这些机器呢?是人类和机器之间产生一个协议,还是仅仅由人类来决定?
赫拉利
:这很难下定论。很多的科学电影创造了一些有意识的机器人,让大众感到困惑,机器人真的有意识了吗?事实上不是的。
但我认为,如果这一天真的来了,也应该是人类和机器人双方共同的决定,因为一旦机器人有了意识,它们会和我们一样感受到痛苦,那它们也应该有权利决定自己可以接受怎样的待遇。
尽管目前的人工智能还没有“意识”,但它也已经开始面对一些伦理问题了,例如,在车祸中,面对“杀死 5 个坏人,还是 1 个好人”的命题时,驾驶系统该如何做选择?我们应当如何建立人工智能选择的伦理标准?既然人工智能不能只是少数精英的游戏,作为普通大众,我们应该如何参与?
赫拉利
:首先,我认为我们应该有一个讨论机制。目前,公众并没有
针对人工智能进行
特别热烈的讨论,也没有明确的发展路线。现在的决策都只是掌握在少数人手里,这些人都来自大企业或者其他组织的工程师、科学家,他们不代表任何个体。所以大众其实根本没有注意到人工智能目前发展到了什么阶段。
所以,大家要先有意识,明白这对我们和我们的后代都是非常重要的,然后可以将关于 AI 的讨论当作日常的一件事,探讨人类究竟可以给 AI,或者说这些算法多大的权力。即使是老年人,也可以多接触计算机、智能手机,有了更多的了解后才能做出一些决定。