正文
一个国家往往不愿意承认自己过去的黑暗片段或现在正在做的黑暗事情。整个文明也是如此。
我认为历史学家应负起责任,不要互相指责,而要单纯地帮人们更好地理解世界中的大问题及其根源,这是一项重大的责任。
我非常赞同你的观点,因为你刚刚指出了人类的核心价值。人类的核心价值不是提供任何准确的知识,不是让世界变得透明。
其实,最重要的是,通过人性和反思,
我们引导人们不要匆忙地做出任何判断,尝试过一种慢生活,尤其是在思想层面。
鉴于人性的复杂性,不同叙事框架可能交替主导,或在认知层面出现偏颇与片面,这恰恰凸显了审慎思考的必要性。
程乐松教授。
照片来源:北京大学融媒体中心
为什么会这样?因为我们理解的角度有限。你在你的作品中,很大程度上是在试图给人们提供一个
非常谨慎的、精炼的警示
,即敦促我们尊重,但绝不盲目地相信我们不完美的人性。
如果我们把目光转向所谓的科技发展,以及因为人工智能技术而正在发生的巨大变化,我们会发现,问题不仅仅在于技术本身。正如辛顿所指出的,最重要的是这项技术的滥用,而不是技术本身。这在很大程度上将我们引向了在政治哲学中一个非常重要的问题,我们称之为
技术统治论
。
而
那些致力于开发人工智能技术的人,实际上已经对人类建立起了一个系统的技术暴政。
你的书试图敦促我们反思人的缺陷,但人类的这种缺陷正是我们区别于机器的关键。因为我们有情感,有欲望,所以这在很大程度上促成了一个对未来既特别、又正确的态度,我称之为
适度乐观
,即你不应该过于乐观,但也绝不能把它说成是悲观的。
不信任人类,
却幻想相信一个新物种
是不责任的表现
赫拉利:
我经常被问到这样一个问题:我对未来是悲观还是乐观?
我总是说我
两者都不是
。
悲观主义滋生绝望,但乐观也同样可以变得危险,因为它会滋生自满情绪。
我试图找到一条
负责任的中间道路
。这不是乐观主义或悲观主义,而是意识到我们面前可能有不同的未来。
我们可以绘制一张不同未来的地图,有好有坏,没有什么是确定的。这需要有足够多的人来做出正确的决定,才能到达正确的目的地。
纵观当今世界,我对世界各地许多政界和商界领袖所表现出的缺乏责任感感到震惊。人类似乎正朝着一个非常危险的方向发展。而此时此刻,由于人工智能革命的到来,
责任比以往任何时候都更加重要
。
我们正在创造的不仅仅是历史上最强大的技术,
而是一个潜在的新物种——超级智能
,它们可能很快就会夺走我们的控制权。我们只有
几年时间
来做对这件事。
当我周游世界并与人工智能革命的领导者交谈时,就像他们问我“你持乐观还是悲观态度?”一样,我以两个问题来反问他们。
第一个问题是,你们为何如此心急?
为何不给人类留出必要的时间来适应和反思以更审慎和安全地发展这项技术?他们的回答惊人地相似。
他们(
人工智能革命的领导者们
)回答说:“我们知道有很大的风险。我们也希望可以循序渐进,但我们不能相信我们的人类竞争对手。如果我们放慢脚步,而其他公司或国家不慢下来,他们就会赢得这场人工智能竞赛并主宰这个世界,这个世界将会被最无情的人统治。我们不能允许这种情况发生,所以我们必须加快速度。”
然后,当我与他们的竞争对手交谈时,也会得到相同的答案。大家都声称
不相信其他人。
尤瓦尔·赫拉利教授。照片来源:北京大学融媒体中心
于是我问了他们第二个问题,那你是否相信你们所开发出来的超级智能体?
这些刚才还口口声声说不相信同类的人,突然转向说:“我们认为超级智能体是可以信赖的。”
这样的对话真的让人感到精神错乱。因为我们知道人与人之间相处会有各种麻烦,但我们对人类的心理和生理有较为全面的了解。在历史上,我们经历的不仅有暴力和战争,也有信任的建立。
人工智能作为一种前所未有的技术,在开发之初我们已经知道它可能具备撒谎、欺骗和操纵的能力。然而,我们无法预测当数以百万计的超级智能体被部署到金融系统、军事系统和文化领域时会发生什么。因此,