专栏名称: 普华永道
普华永道中国官方公众平台,欢迎关注!
目录
相关文章推荐
春城晚报  ·  一儿童走出车厢,掉入站台股道!最新通报 ·  17 小时前  
昆明信息港  ·  速看!渝昆高铁有新进展 ·  昨天  
掌上春城  ·  突然宣布:樊振东加盟!本人发声 ·  2 天前  
51好读  ›  专栏  ›  普华永道

【新基建 筑未来】“负责任”和“可解释”的人工智能,助力企业应对技术变革风险

普华永道  · 公众号  ·  · 2021-06-02 21:49

正文

请到「今天看啥」查看全文




第二个层面,是 人工智能技术的开发和使用导致的道德和伦理风险 。四年前,一项新的人工智能应用面世,结合了深度学习(Deep Learning)和伪造(Fake),成为如今众人熟知的“深伪技术”(Deepfake)。这项应用是人工智能赋能的图像合成技术,可以将已有的图像或影片叠加至目标图像或影片上,只需要获取仿造对象的人物影音素材,就能制造出可以假乱真的影片。此项技术如果应用在媒体娱乐领域,可让制作人拥有更大的创新能力,但同样的技术也能帮助传播虚假信息,对社会稳定造成极大隐患 34 。人脸识别也是一个具争议性的人工智能应用,在全球多个国家和地区,大众担忧人脸识别技术的应用可能侵犯隐私,造成偏见和歧视等,因此反对此项技术的使用,甚至立法禁止使用相关技术 567


联合国教科文组织在2019年3月21日发布《关于制定人工智能伦理标准机制可取性的相关技术和法律问题的初步研究报告》 8 ,其中提到人工智能所带来的潜在问题:“就像许多信息技术一样,人工智能突出了表达自由、隐私和监视、数据所有权、偏见和歧视、信息和信任的操纵、权力关系以及与能源消耗相关的环境影响等问题。”


放眼全球, 中国在人工智能领域的能力处于世界第一梯队的领先地位 ,因此也在一直关注人工智能治理方面的挑战。2019年2月,在新一代人工智能发展规划推进办公室的工作会议上,科技部王志刚部长宣布成立“新一代人工智能治理专业委员会” 9 ,旨在进一步加强人工智能相关法律、伦理、标准和社会问题研究,并深入参与人工智能相关治理的国际交流合作。2019年6月,新一代人工智能治理专业委员会发布我国首套有关人工智能治理的框架和行动指南:《新一代人工智能治理原则——发展负责任的人工智能》 10


尽管众多企业已采用人工智能技术,但只有小部分企业开始思考人工智能对其业务可能带来的挑战。因此,许多人工智能项目很可能并未建立适当的治理机制,用以减轻潜在风险,解决内部和外部利益相关方的安全问题等。传统的信息系统治理是一个好的基础,但并不足够,加上人工智能可在运行中实现自我提升,有别于一般的电脑软件。所以, 一个能覆盖人工智能应用生命周期、实现持续监督以及保障合规的治理体系必不可少。


在数字化转型的推动下,人工智能研发和应用的步伐将会进一步加快,因此有必要掌握保障人工智能利益实现的关键领域,包括获取和使用数据、模型和算法、输出和决策支持、机器学习的使用等多个方面。信息系统整体控制,人工智能治理架构的搭建,以及企业自身的变革管理等也是必要的配套元素。



普华永道早在2017年开始探索 “负责任的人工智能” ,并发布相关治理框架供企业和监管机构参考。随后在2018年,普华永道发布 “可解释的人工智能” ,聚焦如何能让人工智能算法所得出的结果获取使用者信任,探讨是否需要打开算法的“黑盒子”,建议人工智能的治理既需要理论框架,也需要技术支撑和具体指引以落实相关概念。2019年7月,普华永道全球人工智能主管合伙人 阿南德·拉奥 (Dr. Anand Rao)在大连举办的 世界经济论坛新领军者年会 上发布 《负责任的人工智能实用指南》 11 以及相关的技术工具包(Responsible AI Toolkit) 12 ,支持企业的决策者实施可信的人工智能。


普华永道相信,人工智能技术被纳入监管是必然的趋势。欧盟在2021年4月提出新的规则和相关行动 13 ,旨在将欧洲变为全球“可信人工智能”的中心。这将是全球首套直接针对人工智能的法律框架。值得关注的是,人工智能的应用,以及对其风险的接受程度,在全球范围内存在较大差异,因此需要较长时间方可实现一套较为统一的法律监管体系。而这些分歧所产生的争议甚至贸易壁垒,或将致使人工智能的道德、安全和信任问题对技术的开发者和使用者产生直接业务影响。 “负责任”和“可解释”的人工智能将是取得利益相关方信任及满足未来合规需求的基石。



普华永道将继续关注作为新基建核心支撑之一的人工智能领域相关动态,分享专业洞察,助力企业在通过人工智能创造价值的同时,应对新技术带来的风险和挑战。







请到「今天看啥」查看全文