正文
人工智能的安全与管控
这份报告中关于的伦理道德的考虑主要围绕人工智能的安全与管控。特别地,报告主要强调了以下问题:
●
检验和确认
:检验和确认需要方法的制度化,保证人工智能按照既定的计算机算法运行,而不出现不必要的行为或者功能上的改变。报告讨论了由于人工智能系统的机器学习能力、适应能力及性能的提高,给测试和量化人工智能系统运作带来的多方面挑战。报告的作者们认为,这些问题目前还没有有效的补救措施,因为现有的传统方法无法统一适用于不断进化发展的人工智能系统的检验和确认。但是,报告提及了谷歌深度思维公司(Google DeepMind)和牛津大学联合发起的人工智能系统的“自我毁灭装置(kill switch)”的研究项目,这个装置能够让人工智能系统处于不间断的人类监管干预之下,而且人工智能机器本身无法逃脱这一监管干预。
●
决策系统的透明化
:目前为止,尚不存在一种非常人性化的方式来追踪一个智能机器的决策过程。这一缺失限制了人类给予智能机器做出选择的自由,因为没有完全透明的决策过程来让人类学习或者控制这些人工制造的思考过程。在有关人类生命安全领域的关键决策中,决策透明化的缺失变得更具挑战性,如自动驾驶汽车。而这反过来,可能会导致公众的不信任和消极偏见,造成人工智能系统的应用与实施停滞不前。对于这一点,报告提到了微软公司承诺将提高计算机算法的透明度来满足人类理解和监管的需求。微软公司认为,算法透明能够提高公众对于人工智能的信赖程度,允许人类对人工智能的机器逻辑进行严格的测试。然而,这一制度化测试应当采用的明确和有效的方法,现在仍然不得不得而知。
●
偏见最小化
:报告的作者们引用谷歌公司的数码相册软件将深色皮肤的人群标记为大猩猩的例子,表达了对于人工智能系统内置的偏见与歧视的关切。这个例子展示了科技错误如何转变成伤害,进而导致社会不安与仇恨。人工智能机器完全受到其人工设计的结构和学习进程中接收的数据的世界观的影响。在约翰·诺顿(John Naughton)看来,对于笃信科技的中立性并全神贯注于科技功能而非累积的学习材料的设计者来说,这些潜在的歧视,还没有被发现。微软公司的戴维·科普林(Dave Coplin)的言论验证了这一结论,即所有人造的或者基于人类设计的计算机算法都存在这样的偏见。他认为,程序员们在编辑代码指引每个人的生活时,应该充分的认识到其对伦理道德与社会敏感性的影响。最后,报告提到,在即将到来的欧盟《一般数据保护条例》(General Data Protection Regulation)(现已公布)中,将会有针对计算机算法歧视的应对措施,然而该法案的真正实施可能会面临困难。
●
隐私与知情权
:在关于谷歌深度思维公司(Google DeepMind)与英国国家健康服务中心(UK National Health Service)开展的广泛合作的新闻报道中,英国民众表达了对于人工智能机器以何种方式进入、存储和使用保密的病人数据的关切。机器学习的核心部件如何处理病人数据需要考虑其诸多道德影响,并依赖于智能机器每天正常的运转。这就意味着人类分享给人工智能系统的数据变得不再私密,同时数据的所有权也成为了一个问题。正因为这些挑战的存在,才需要有效的措施来保证人工智能系统使用的数据被合理的限制、管理和控制,以此来保护隐私权。同时政府应该努力找到一个平衡点,在保护数据安全的情况下又不禁止通过系统化使用这些数据来造福公众。报告指出,为了应对这些问题,英国政府正在和阿兰·图灵研究所(Alan Turing Institute)合作建立一个旨在研究数据科学的“数据伦理委员会”(Councilof Data Ethics)。
●
归责制度与责任承担
:关于人工智能责任制度的讨论,主要集中在自动驾驶汽车以及谁应当为自动驾驶汽车发生的故障和事故负责的问题。微软公司的戴维·科普林(Dave Coplin)强调政府监管和干预的重要性,应当建立明确的要求来说明为什么以及如何让人工智能系统的设计者和部署者承担其应有的责任。而这个问题在自动驾驶汽车做出独立智能决策导致损害发生的情况下,将会面临更多的法律难题。在这种情况下,我们无法准确分配司机、自动汽车生产者以及人工智能系统设计公司的法律责任。此外,如何采用立法手段既能阻止损害发生,又能让个案的不幸结果得到救济,同时保证法律的统一与灵活,仍然是一个值得思考的问题。为了应对这些挑战,英国政府发起了一项提案试图解决自动驾驶汽车的法律责任问题。提案内容如下:我们的提案旨在将汽车强制险的适用扩大到产品责任,在驾驶者将汽车控制权完全交给自动驾驶汽车的智能系统时为他们提供保障。而这些驾驶者(或者投保人)需要依靠法院根据现行《消费者保护法》(Consumer Protection Act)的产品责任和普通法下的过失原则的裁判,来确定哪一方应该对事故的发生负有责任。
为了妥善应对和监管人工智能进步所带来的各种道德和法律问题,如深度学习机器、自动驾驶汽车的设计与应用,政府应该建立持续的监管制度。报告提到,公司以及研究机构不断要求政府为其提供监管的指导方针和标准,尤其是在广泛传播的创新科技上,让其可以调整本身的行为及未来的理论与实践走向。ABB公司的代表麦克·威尔逊(Mike Wilson)表达了ABB公司对于政府的监管框架无法跟科技进步相协调的担忧。清晰严格的政府监管规则的缺失,造就了越来越明显的监管空白地带,可能会加深公众的信任危机以及阻碍关键的创新技术在不同行业领域的发展与应用。
然而,政府的监管方式应该认真仔细的构造,以防“一刀切”式的监管方式阻碍科技创新以及未来的发展与应用。这一点对于自动驾驶汽车尤其适用,监管的透明化能够让公众和厂商都能做出更明智的决策,也能在此基础上共同影响自动驾驶汽车的未来发展前景。只有这样,英国市场才能更加适合新兴科技的发展,并且在全球范围内保持英国在经济、科技及人文等方面的领导地位。
在公众层面、学术界、产业界、国家以及国际层面,同样存在着致力于制定出人工智能道德指导方针的积极努力。但是,报告明确提到,各个层面之间的信息交流和参与程度,仍然不是很令人满意。同样,令报告的作者感到担忧的是,由谁来监管机器人技术以及自动化系统发展带来的道德和法律影响,现阶段仍不明朗。来自微软公司的意见是呼吁建立一种共享的监管机制,这一机制由联合政府部门、科技行业代表、非政府的学术机构的研究者以及代表最大部分服务消费者的公共利益团体共同组建。
这份报告中所收集的证据都在强调鼓励公众参与的重要性,因为只有这样才最有利与促进以人工智能为基础的科技发展。而通过鼓励公众参与可以让公众更好的与人工智能科技互动,了解更多相关信息,从而对于人工智能科技的未来更加充满信心。人工智能这样的管理方式可以跟政府监管转基因食品的方式相比较,后者显然没有能够让公众充分的参与和了解更多信息。加强公众参与另一个方面的好处就是更好的理解和处理人工智能带来的社会问题,例如可以通过辅助智能机器人技术减少紧迫性的问题。
很多的专家都认为在科技领域的政策制定过程中应该有更多的披露措施,这将有利于促进公众的参与,同时了解和关注科技发展带来的社会、道德和法律问题。积极的、负责的政策法规和监管不应该局限于少数专家和利益相关者,而应该听取所有利益相关者的意见。
报告得出结论认为,现在部门式的监管立法为时尚早,但是应该及时采取措施应对机器人技术与自动化系统的兴起和使用对社会各个方面的影响。这些措施的实施,将有利于英国建立公众对于政府的信任,同时促进先进科学技术的更广泛采用。因此,报告重申了其建立专门的机器人技术与自动化系统委员会的建议。该委员会对政府在制定鼓励人工智能发展和应用的监管标准以及如何控制人工智能方面献言献策。委员会的人员构成,将会来自不同的领域和部门,通过开展透明和有益的对话来使多方受益。