主要观点总结
知名学者赫拉利与国际AI专家李开复博士就生成式AI的影响展开了一场对谈。两位专家探讨了AI对人类社会肌理的改变,从信息获取、金融市场到工作岗位,既带来机遇也孕育风险。他们同时指出,人工智能的崛起迫使我们重新思考人性的本质,即意识、感受痛苦与快乐的能力,以及对他人真实的关怀。他们呼吁更多人了解AI的机遇与威胁,并参与到这场对话中,以确保AI的发展是为了辅助和帮助人类。
关键观点总结
关键观点1: AI对人类社会的改变
AI正在改变我们的社会,从信息获取、金融市场到工作岗位,带来机遇的同时,也孕育着风险。
关键观点2: AI对人性本质的思考
赫拉利与李开复指出,人工智能的崛起迫使我们重新思考人性的本质,即意识、感受痛苦与快乐的能力,以及对他人真实的关怀。
关键观点3: AI的社会责任
李开复强调,利用和控制AI的企业需要思考其社会责任,确保AI的存在是为了辅助和帮助人类,而不是制造无法解决的问题。
关键观点4: 全球对话的重要性
赫拉利呼吁更多人了解AI的机遇与威胁,并参与到这场对话中,以确保AI的发展方向,同时保持对话的全球性,以便不同地区的人们能够相互交流。
关键观点5: AI的未来发展
赫拉利表示,尽管AI具有巨大的正面和负面潜力,但我们仍然有能力决定它的发展方向,需要明智的决策和选择。
正文
李开复:
是的,这在某种程度上已经发生了。在美国、中国及其他国家和地区,许多人工智能量化基金已经取得了出色的回报。这些基金基本上是由人工智能来做决策,人工智能每天会分析所有的交易数据和新闻,并决定最佳的股票购买时机,然后在没有人类指令的情况下买进和卖出。人类提供的唯一信息是所有用于做决策的数据和目标,即在一定风险承受范围内达到最高收益,这已经成为现实。
如果我们审视人类的所有任务,投资可能是最具量化性的任务。因为几乎所有决策都是基于实时信息,人工智能能够更快地阅读、筛选可能性、进行组合交易,并且能够更快速地买进和卖出,还具备更强大的信息获取能力。所以,当人们读到某位企业总裁的发言并考虑购买某只股票时,人工智能很可能已经抢先一步完成了交易。这已经成为现实。
赫拉利:
那么,这是否会像在其他特定领域发生的那样,比如围棋?我们已经知道人工智能比任何人都更智能,甚至更有创造力。在金融领域是否也会发生类似的情况?
如果确实如此,那么当人类和人类政府失去了对金融系统的控制,这对社会乃至政治意味着什么?也许他们再也无法理解金融系统及主要的金融决策。
所以,你仍然会有作为这个体系的官方领导的人类总统、总理和银行家,但他们不再能够理解这个世界的一个重要组成部分——金融系统,也不再能够对其进行监管或做出决策。
李开复:
是的,我认为几乎每个职业都有这种风险。
在金融领域,我提到的AI获取信息的速度和广度是人类无法企及的。
有一些方面例外。比如,如果你是一名风险投资人,你可能依赖于直觉判断一个人的微表情真诚与否等;而在企业重组和并购中,你需要深入了解不同人格并进行更深层次的解读。但是,
除了人与人之间的互动之外,在所有基于信息的方面上,我们都无法胜过人工智能。
人工智能医生将开始变得比普通医生更优秀。医生将开始把人工智能作为一个可能的参考,然后,随着人工智能不断进步,医生会失去自信,更加信任人工智能,最终变成一个橡皮图章。尽管我们将责任和医疗失误的后果归咎于医生,但当医生看到人工智能进步的速度时,最终不可避免地会感到人类在这方面远不如人工智能准确。
那时,医生将只是盖章担保决策逐步转向由人工智能做出决策。
赫拉利:
是的,我们已经在军事领域看到了这种滑坡效应。
因为选择军事目标需要非常迅速地分析大量信息,所以人工智能将目标选取过程加速了几个量级。但这当然也引发了一个非常大的伦理问题,如果军方使用的人工智能告诉你某栋建筑是恐怖组织的总部或者是敌方的指挥部,你是直接相信人工智能并下令轰炸,还是先由人类来验证这一信息的准确性?
也许人工智能会出错,也许那只是个平民住宅;也许那里确实有敌军总部,但同时也有平民,他们可能会受到伤害。那么,你该如何选择?
现在,我不确定。我和许多人交流过,他们给出了不同的答案。有些人说军队只是简单地轰炸人工智能指示的目标。其他人则说:“不,不是这样的,我们有严格的伦理标准。我们会先由人类分析师确认,这是一个合理的目标。”
可能有时候是这样,有时候是那样。但在这场战争中,人工智能主要是在一方使用。但在未来的战争中,可能就在一两年内,一旦双方都拥有人工智能,做出这些伦理决策的空间将会缩小,因为决策迫在眉睫。如果双方都由人工智能选择目标,其中一方直接相信人工智能并立即采取行动,另一方却说:“不,不,不,我们需要人类来验证。”
与人工智能相比,人类非常缓慢。也许在人类花费几天甚至几小时验证人工智能决策正确性的时候,目标已经转移,或者对方已经先发制人。
所以,军队将面临越来越大的压力,进而只是简单地执行人工智能的指令。
李开复:
是的,我认为在许多其他问题中,让人类参与以确保安全的想法通常不具扩展性。这是同样的问题,在金融市场上,人类的参与会使流程效率降低,可能导致你赚不到那么多钱甚至亏损。
正如你刚才所说,在军事上也是如此。所以,
我认为人类会倾向说让人类参与,这样我们会感觉更好。一开始人们会这么做,但在竞争激烈的时候,我认为这将变成一场懦夫博弈。
有人会说,让人工智能做决定可能是错误的。但如果我输掉战争或者破产那更糟,所以我将移除这个环节中的人类。所以,我认为我们需要另外的基本安全检查和防护措施。
我的意思是,最简单的解决方案是保留人类环节,这在许多情况下是不可能的。无论是金融还是战争,因为速度的因素。那么,还有哪些其他的防护措施呢?
李开复:
有时候,
技术本身就是防护措施,最好的防护措施是另一种技术。
就像当电力被使用时,它会电击人,然后人们发明了断路器;当互联网产生病毒时,电脑中了病毒,就出现了杀毒软件。这一次要困难得多,但我认为,如果我们这些技术专家鼓励更多的人去研究防护性技术解决方案,而不仅仅是构建更智能的人工智能,那么一个有效的解决方案或许就会出现。
当然,另一种方法是监管。但我认为,很难对一项尚不为人熟知的技术进行监管,所以我认为我们应该双管齐下。
一方面,研究技术防护措施,资助相关研究,鼓励聪明的人投身其中;另一方面,不应害怕利用我们现有的知识来实施监管。所以,欺诈交易的后果、深度伪造的后果、过失杀人的后果,无论这些是由人工智能还是人类造成,都应适用相同的法律。
可以说,如果人类使用人工智能大规模地进行这些行为,后果可能会更严重。但从监管的角度来看,我个人更倾向于使用现有法律并将其扩展到人工智能领域,而不是仅仅应用那些即将出台的法律。
人们只是猜测,“好吧,我们要对大语言模型进行监管,让我们阻止人工智能技术发展”,这些观点很武断,未经证实,而且很难执行。
赫拉利:
但是谈到监管,特别是我们在唐纳德·特朗普当选为美国总统后的两三天谈论这个问题。他主要是以放松管制为竞选纲领,并得到了埃隆·马斯克的大力支持。我认为,
所有关于美国将对人工智能发展施加管制的幻想,以及各国政府之间就人工智能监管达成某种全球协议的幻想,现在看来完全不可能实现。
我的意思是,即使在选举之前,也很难看到美国、中国、欧盟和俄罗斯就共同监管21世纪最具爆炸性的技术达成一致,现在看来这几乎是不可能的。
在美国大选结果揭晓后的两三天,您在北京对人工智能军备竞赛以及达成全球协议或监管的可能性有何看法?
李开复:
我认为即便是在一国之内就规范技术达成共识已经很难,更不用说国与国之间了。
所以,我会倾向于说,如果人类使用人工智能犯下某种罪行,或者需要因违规行为被罚款,那么必须将这种责任延伸到人工智能上。
但我很难乐观地认为可以达成全球协议。我确实理解您所说的选举情况,但我认为这非常困难。有人在讨论这个问题,但我认为OpenAI的内斗就是一个很好的例子,萨姆·阿尔特曼支持进步,支持通用人工智能和人工智能,支持快速发展;而伊利亚和其他一些高管则支持安全性。
可以说,最有可能创建出令人担忧的接近通用人工智能的公司可能是OpenAI。之前,在追求速度和追求安全性之间存在着制衡。现在,支持安全性的人已经退场。OpenAI可能会发展得更快,可能会变得不计后果,当然也可能不会。我希望不会。
所以,我们面临着一个问题,就是我们难以监督这些力量,同时又存在着一个可能加速发展的市场领导者。这确实是一个挑战。
赫拉利:
这似乎像是某种进化逻辑或进化竞赛。如果你更关心安全问题,决定放慢速度,投入更多资金建立防护措施,而不是尽可能快地向通用人工智能发展,那么你就落后了;如果竞争对手更无情一点,完全不顾及安全问题和防护措施,他们就会领先。