专栏名称: 知识分子
《知识分子》是由饶毅、鲁白、谢宇三位学者创办的移动新媒体平台,致力于关注科学、人文、思想。我们将兼容并包,时刻为渴望知识、独立思考的人努力,共享人类知识、共析现代思想、共建智趣中国。欢迎关注。
目录
相关文章推荐
果壳  ·  牙龈萎缩了,还能“长”回来吗? ·  11 小时前  
果壳  ·  胧月她才六岁,她能撒谎吗? ·  2 天前  
51好读  ›  专栏  ›  知识分子

令人担忧:神经技术和人工智能的四个伦理问题

知识分子  · 公众号  · 科学  · 2017-11-11 06:59

正文

请到「今天看啥」查看全文


几乎可以肯定,当我们更进一步地理解了真实的神经网络是如何工作的之后,未来的神经网络甚至会比这些例子更加强大。目前使用的人造网络的灵感来自于50多年前的大脑回路模型,这些模型基于被麻醉的动物单个神经元活动的记录。


在今天的神经科学实验室里,因为光学方法、计算、分子工程和微电子技术的进步,研究人员可以监控和操纵活着且清醒着的动物成千上万的神经元活动。


我们已经与机器紧密相连。今年,谷歌的研究人员计算出用户每年平均接触手机的次数接近100万次 (数据未发表) 。人类的大脑控制着听觉和视觉系统来解读声音和图像,然后命令肢体来持握和操纵我们的设备。然而,神经科技和人工智能的融合发展将会带来一些质的不同——人类大脑与机器智能直接连接,绕过大脑和身体正常的感觉运动功能。



在大脑中植入电极刺激神经活动后,有些人报告说他们有种身份认同被改变的感觉(SIP/UIG/GETTY)


四项要点


神经技术若要在普通消费者市场里兴起,这些设备必须是非侵入性的,风险很小,而且部署费用要低于目前的神经外科手术。现在,那些正在开发类似设备的公司必须对其产品负责,应以一定的标准、最佳实践和道德规范为指导。


在此,我们强调有四个方面的问题需要我们立即采取行动进行应对。尽管我们是在神经技术的语境下提出这些问题的,但它们也适用于人工智能。


隐私权和知情同意权。从人们的数据轨迹中可以获取非常多的个人信息。例如,麻省理工学院的研究人员在2015年发现,通过研究人们在个人设备上的键盘输入模式,精细地分析他们的运动行为,使得早期诊断帕金森氏症变为可能。2017年的一项研究表明,测量人类的运动模式,比如在日常活动中使用智能手机的人的运动模式,可以用来诊断阿尔茨海默病造成的认知障碍的早期症状。


如果利用神经信息的话,比如参考那些与特定注意力状态相关的神经元的活动模式信息,用于投放广告、计算保险费或匹配潜在伴侣的算法就会变得更加强大。与互联网连接的神经装置打开了个人或组织 (黑客、公司或政府机构) 追踪甚至操纵个人精神体验的可能性。


我们认为公民应该有能力和权利保护他们的神经数据隐私 (参见“主观能动性和身份认同”) 。我们建议采取以下步骤来保障这一点。


对于所有的神经数据,默认都应能选择不分享,这一点应当得到严格保护。如今人们很容易把他们的隐私权拱手送给提供各种服务(比如网络浏览,社交媒体或娱乐)的商业机构,而从未真正认识到他们交出的究竟是什么。


如果默认选项就是拒不分享的话,则意味着神经数据在大多数国家都会被以和器官或生物组织相同的方式对待。如果个人要从任何设备共享神经数据的话,他必须明确地选择和确认这一点。其中将涉及一个安全保障过程,包括一个知情同意程序,明确规定谁将使用数据,目的是什么,以及使用多长时间。


即使实施这种方法,根据许多自愿分享者的神经数据,再加上来源于互联网搜索、运动监视器等等多种渠道的大量非神经数据,也能得出关于那些选择不分享的人们的“可靠”结论。为了遏制这一问题,我们建议对神经数据的销售、商业转让和使用进行严格的管制。


这样的法规也将限制人们放弃自己的神经数据或将神经活动直接写入自己的大脑中,从而换取物质报酬,可能类似于禁止出售人体器官的立法,比如1984年的美国《国家器官移植法案》。


另一重保护措施是限制神经数据的集中处理。我们提倡使用类似差分隐私或者联合学习的计算技术,来保护用户隐私 (参见“保护隐私”) 。使用其他专门用来保护个人数据的技术也会有所帮助。



保护隐私

联合学习


当科技公司使用机器学习来改进他们的软件时,他们通常会在服务器上收集用户信息,分析特定服务是如何被使用的,然后在集合的数据上训练新算法。


谷歌的研究人员正在试验另一种人工智能训练方法,即联合学习。使用这种训练方式时,教学训练过程发生在每个用户的设备上,而没有聚合数据再进行处理的过程。从单独数据中总结出来的知识(例如, “weekly” (每周) 这个词在英语里可以用作形容词和副词)被发回谷歌的服务器,但实际的电子邮件、短信等信息仍然保留在用户自己的手机上。


其他团体也在探索类似的思路。因此,改进设计后的信息系统更加保障了用户对个人数据的所有权和隐私,同时仍然可以在这些数据上执行有价值的计算。



例如,基于区块链的技术可以让数据能被跟踪和审计,而“智能合同” (Smart contracts) 则可以对数据的使用方式进行透明的控制,而不需要集权。最后,开放数据格式和开源代码可以让我们更透明地知道什么信息将保持私密,而什么信息会被传递分享出去。


主观能动性和身份认同。有些人通过在脑内植入电极接受深部脑刺激,他们报告说感觉自己的身份和能动性被改变了。


在2016年的一项研究中,一个曾用过大脑刺激器来治疗抑郁症长达7年的人在一个焦点小组中报告说,他开始怀疑他与他人互动的方式,例如说一些他回过头来认为很不合适的话,究竟是因为电极刺激,他自己的抑郁,还是反映了一些关于他自己的更深层次的东西。他说:“这一切模糊到了一起,说实话,到最后我都不确定我是谁了。”


神经科技可以很明显地扰乱人们对于身份和能动性的认识,从而动摇关于自我和个人责任的核心认知,不论是法律责任还是道德责任。


也许通过“自动完成”或“自动更正”功能,机器学习和大脑接口设备能够更快地实现意图和行动之间的转换,在这种情况下,人们最终可能会做出一些他们自己难以接受的事情。如果人们能够通过自己的思想长距离地控制设备,或者几个大脑被连接到一起工作,那么我们对自身身份和行为的理解将会被扰乱。


随着神经技术的发展,企业、政府和其他各种机构开始努力为人类赋能,但是个人身份认同 (我们的身体和精神的完整性) 以及能动性 (我们选择行动的能力) ,必须被作为基本人权保护起来。


我们建议在国际条约 (如1948年的《世界人权宣言》)







请到「今天看啥」查看全文