正文
也正因为一台机器或装置从来就不是依循人类的思维与价值去操作(所以需要透过编译器(compiler)与界面(interface)去转化为人类所能了解的语言和信息),当人类试图要用自己所能认知的逻辑与价值来规制机器或装置时,恐怕就会产生各种扞格不入的问题。而人类自己常有的价值与行为矛盾,一旦要转化为机器程序语言,也注定滞碍难行乃至让机器或装置无所适从。例如,欧洲联盟曾经考虑是否必须把“所有的人工智能机器或装置不可伤害人类”做为不得违反的头号天条,但很快就打消了这个想法,因为至少在可见的未来,人们都想不出具体的实践方法。设想一下:一个具有人工智能的“机器警察”在维持治安时,要如何对应持枪抢劫的嫌犯和同时也持枪试图自卫的其他市民?人工智能要如何去区分谁是“好人”、谁是“坏人”?
另一个典型例子呈现在斯坦利·库布里克(Stanley Kubrick)于1968年所导演、制作的经典电影《2001:太空漫游》(2001: A Space Odyssey),及其之后与科幻小说作家与未来学学者亚瑟·克拉克爵士(Sir Arthur C.Clarke)所共同创作的同名小说之中。影片中最具戏剧张力的关键情节是,宇航船上的人工智能电脑在被制造出来时,其中已输入了一个最高指令:必须保护、不得伤害人类。但地面的任务总指挥官在宇航船出发前,又对电脑输入了另一条绝密的最高指令:必须坚持完成探索地球所有物种生命起源的重大任务,不容失败。于是,最大的冲突爆点便悄然埋下:当任务执行的过程当中发生意外事故导致宇航员准备放弃时,电脑究竟应该是完全听命、放弃任务,还是坚持任务、抗命不从,甚至不惜牺牲全体人员的性命?于是,人工智能电脑无所适从,发生了种种严重的问题。虽然这只是电影情节。但其背后的问题却值得深思:人类常会在不经意之间埋下矛盾的种子却还不自知,等到一旦发生了问题,又如何要求一台机器或装置去做原本应该由人自己做出的价值判断?尤其是,人类应该如何教会机器撒谎并自圆其说?
另一个现实的例子是,当联合国《常规武器公约》(Convention and Certain Conventional Weapons, CCW)【3】缔约国专家组正在研究论证是否要在未来的公约修改草案之中明文禁止所谓的“杀人机器人”(killer robots)之际,许多国家的国防部门却正以降低人员的伤亡为由,早已开发出专门从事不同形式战争格斗的机器人或人工智能技术(装置)。这也与一些国家在人工智能问题上标榜的核心价值和精神完全背道而驰。
反过来看,当人工智能通过“学习”,“创作”出了诗篇文章之时,是否要赋予其著作权的“保护”呢?这刚好就是“潜水艇是否会游泳”的反面问题,试图把人类的思维与价值向机器、装置投射:是否会游泳的就一定是或不是潜水艇?这当中的荒谬性自然也不言可喻。不过问题并没有到此结束。目前学界已在探讨:虽然一台具有人工智能的机器或装置本身不能获得如著作权等的权益保护,但是其作品如果在其他各方面都符合了可以受到保护的要件(具有独创性的表达,并且不在不受保护的范围之内,如共同场景、操作方法、功能性的呈现等),固然机器或装置未必可以享有任何权利,那么从事人工智能开发的人员或其雇主是否依然可以获得著作权?
持赞成说的观点主要还是从“智力劳动成果”的立场出发,认为人工智能的所有人或开发者就算没有功劳也有苦劳,而且这也较为符合激励创新的精神;持反对说的观点则认为,著作权只保护以“人”(无论是自然人或法人)做为作者的作品,因此凡是由机器所创造出来的,就算是再有“创意”,也难以获得任何的权利;况且任何人工智能或多或少都涉及到对于大数据的收集、整理与运算,如果仅仅基于智力劳动的投入就可被赋予任何权利的话,那是否意味著在特定人工智能背后所有提供了数据或做出贡献的人们都应该共同享有权利?如果答案为肯定,就势必导致不同个体的权利相互抵销,即使有表面上的权利,事实上也将难以有效行使运用,形同胎死腹中。
2017年7月8日,国务院印发了一份名为《新一代人工智能发展规划》的通知,【4】正式把以人工智能为导向的科技与经济发展列入中国未来的专注焦点,列入国家战略层面的系统布局,希望能借此强化中国科技与经济的国际竞争力。这份文件的出台,无疑又给相关的讨论添上了一大把柴火。无论如何,有关人工智能的集思广益,首先应当解决的先决性、根本性问题是人工智能的未来规制问题,这会对其他所有规制的探索产生非常大的影响,也可能直接或间接影响到目前正在进行之中的、关于《民法典》制定的相关讨论,因为这部法典的具体内容需要与当前一些前沿性的问题与发展密切接轨,从十九世纪跨越到二十一世纪。
在这样的探索过程中,或许下列的引语值得我们谨铭于心:
“为什么要对一个机器人给出一个必须服从命令的命令——最原始的命令不就已经够了?为什么要指示一个机器人不可制造伤害——如果从一开始就不给出会造成伤害的指令,不是更容易么?宇宙中难道存在一种神秘的力量,要把各种实体引向恶意,从而必须用软件程序灌注到一个正离子的大脑中来予以抗衡?难道所有的智能生物都会无可避免地出现态度上的问题么?……在电脑真正变得更加聪明和强大时,人们的焦虑反而消减了。如果电脑真的要作恶的话,今天,电脑网络的普及也已产生了前所未见的作恶能力。然而,目前由电脑造成的、来自于无法预期的混乱和人类恶意的唯一伤害只是电脑病毒而已。我们已不再担心电子连环杀人犯或是颠覆性的机器人阴谋,因为我们已经开始感知到,恶意——就像视觉、动作协调以及常识——从来就不会随同电脑的计算无端产生,而必须是由程序植入。……侵略性,就像我们习以为常的人类行为的其他部分一样,是个具有挑战性的工程问题!”【5】