专栏名称: 阿里研究院
阿里研究院依托阿里巴巴集团海量数据、深耕小企业前沿案例、集结全球商业智慧,以开放、合作、共建、共享的方式打造具影响力的新商业知识平台。 阿里研究,洞察数据,共创新知! 官方网站http://www.aliresearch.com/
目录
相关文章推荐
财联社AI daily  ·  淘宝Vision进军线下! ·  10 小时前  
财联社AI daily  ·  淘宝Vision进军线下! ·  10 小时前  
电子商务研究中心  ·  一站式循环租用服务平台“人人租”完成数亿元D ... ·  昨天  
蛋先生工作室  ·  2025年6月4日鸡蛋收盘价 ·  昨天  
网购投诉平台  ·  穿完就退 ... ·  2 天前  
蛋先生工作室  ·  最新淘汰鸡行情 ·  2 天前  
51好读  ›  专栏  ›  阿里研究院

人工智能时代内容生成的伦理治理——访清华大学文科资深教授、人工智能国际治理研究院院长薛澜

阿里研究院  · 公众号  · 电商  · 2025-04-23 10:46

主要观点总结

本文介绍了薛澜关于人工智能治理的观点,包括生成式人工智能技术的风险、治理原则、发展方向等。

关键观点总结

关键观点1: 生成式人工智能技术的风险和挑战

薛澜提到了生成式人工智能技术在应用过程中存在的虚假错误内容的生成风险,包括技术内生风险、技术开发过程中的风险以及技术应用或滥用的风险。他还强调了技术创新带来的新兴产业的伦理风险和负外部性问题。

关键观点2: 敏捷治理的理念和实施

薛澜提出人工智能时代的治理需要敏捷治理,包括治理上的快速反应、工具选择上突出柔性原则、治理关系上实现重塑等方面。他强调了政府在内容生成领域的治理要发挥有效市场和有为政府的作用,形成多元治理格局。

关键观点3: 内容生成技术的未来发展和治理新兴风险

薛澜对未来生成式人工智能技术的发展可能带来的新兴风险进行了警示,包括技术引发的人类创造力依赖和情感钝化风险。他强调了创新和治理的平衡是人工智能技术发展的永恒主题。

关键观点4: 营造良好的创新生态

薛澜提出了营造良好的创新生态的重要性,包括有实力雄厚的研究型大学、多元的资本投入、适宜的生活环境和良好的营商环境等方面。


正文

请到「今天看啥」查看全文


二是工具选择上突出柔性原则,引导为主,惩罚为辅。在传统治理中,政府监管是在发现问题、确定问题之后通过正常行政或法律程序制定实施规则的,政策工具以惩处为主,表现为“过程慢、力度大”。而对以生成式人工智能为代表的人工智能产业,敏捷治理在工具的选择上就要反过来,即“下手快、力度轻”。“快”可以减少企业技术路径和商业模式的调整损失;“轻”主要突出方向性和试探性,企业可以马上得知监管态度,知晓对产业治理的方向。需要注意的一点是,这种工具选择的逻辑是引导而不是惩罚,但如果企业对政府的有关引导视而不见、置之不理造成不良后果,政府也有必要采取严格的监管措施。

三是治理关系上实现重塑,形成共同体机制。在传统治理模式中,政府监管具有鲜明的问题导向,监管者与被监管者之间呈现典型的“猫和老鼠”关系。政府主要通过抓企业的负面行为实现监管,尽可能制定一套全面完整的监管规则,而企业由于法规意识不强,为了扩大自己的盈利空间,会通过寻找规则漏洞来逃避监管,二者往往位于对立面。但在以生成式人工智能为代表的人工智能时代,企业很多时候不知道再往前会出现什么样的创新,政府也不知道会产生什么样的风险,监管者与被监管者对未来发展趋势处于“共同无知”的状态,二者之间的对立关系演化为互相依赖关系。这就需要双方在共同利益的基础上开展深入交流与充分沟通,探索找到一个合适的空间,使得企业的创新探索不会突破政府规制的底线,政府的规则不会完全地束缚企业创新的手脚。这样的合作关系有助于政府更好了解技术和市场发展走向,正确评估相关风险并执行合理的规制措施,也使企业清晰洞察产业发展可能带来的风险和政府治理目标,明晰产业发展边界,共同塑造和引领产业的技术路径和商业模式选择,实现政府和企业的合作共赢,满足良好的互动预期。

学习时报: 在内容生成领域,实施敏捷治理的方向和原则已经很清晰了,但在微观层面,需要解决好哪些难题?

薛澜: 敏捷治理要真正落地并不容易。在内容生成领域,我们面临的其中一个难题就是如何确定内容生成主体行为的责任以及采取什么样的惩罚措施。

理论上,实施内容造假的主体肯定存在违法甚至犯罪行为。但假如一个人生成了虚假错误内容,甚至严重一点说涉及敏感话题,但并没有进行广泛传播,也没有产生负面的社会影响,这种情况下如何判定行为的恶劣程度?假如造假内容不敏感,但造成了大范围传播,又该如何判定责任?如果用户仅是出于个人娱乐等目的生成了虚假内容,但被平台误推送,造成了不良社会影响,责任又该如何划分?这些都对政策工具反应的速度和灵活性造成了难题。

对虚假错误内容治理要形成多元合力

学习时报: 由于生成式人工智能技术的低门槛、普及化特性,参与主体也比以往更为广泛和多元,政府、研发企业、应用平台、用户、普通大众等都是直接参与者和利益主体。刚刚讲了政府治理理念的调整,企业在内容治理中要承担哪些责任?

薛澜: 在人工智能时代的内容生成生态中,企业作为技术开发和应用的主体承担着重要的责任。针对人工智能产业发展所带来的风险,我国已经形成了较为立体的治理体系,可以分为上、中、下层。上层是2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》和2021年发布的《新一代人工智能伦理规范》。中层是针对人工智能具体领域的法律法规,比如2023年发布的《生成式人工智能服务管理暂行办法》、2025年发布的《人工智能生成合成内容标识办法》等。下层就是鼓励企业加强内部机制建设,成立伦理委员会等。不论是技术开发企业还是技术应用平台企业,都必须遵守国家相关的法律法规要求,确保生成的内容健康、准确、真实,并严格按照内容标识办法对人工智能生成的内容进行标注,确保消费者的知情权。

除了合规性要求,企业还需要多做一步,投入更多时间和精力做好技术自纠,防范和应对自身技术系统被恶用的风险。比如通过预训练数据清洗,对某些敏感数据进行有效识别并剔除,提高源头数据质量;在内容生成过程中设置过滤环节,及时识别用户的主观滥用、恶用意图,拦截违规生成内容;对医疗等敏感领域的内容生成实施人工审核兜底;通过用户反馈学习,拒绝违背法律法规、社会公序良俗的内容生成要求,降低模型伦理风险;等等。

学习时报:在内容生成生态的治理中,除了要发挥有效市场和有为政府的作用,我看到您的团队还提出了“有机社会”的治理理念。

薛澜: 打造良好的内容生成生态,不仅要发挥政府、企业的作用,更需要形成利益共同体意识,建立多元治理格局,重视公众在内容生成生态治理中的地位和作用。

首先,公众具有用户和受众双重角色,能够直观感知内容生成质量。要提高他们的辨别能力和维护良好内容生态、参与社会伦理判断的责任意识,对不良生成内容及时反馈,必要时对各类虚假错误内容或恶意应用行为进行举报,配合有关部门加强监督。

其次,使用者推动技术创新。随着新一轮科技革命和产业变革的深入发展,传统以生产者为中心的创新模式逐渐被以使用者为中心的创新模式所替代。使用者创新是指产品的最终用户基于自身需求和使用经验,对现有产品或服务进行改进或重新设计,甚至开发出全新解决方案的创新行为,其核心驱动力在于使用者对实际应用场景的深刻理解和对新需求的切身感知。生成式人工智能技术的研发与应用本身是满足市场需求的结果,而用户在使用过程中会由于新需求的出现,产生对现有技术的优化需求,从而对生成式人工智能技术进行需求导向的创新重塑。因此,我们应该积极鼓励公众广泛参与,发挥使用者创新的集体智慧,促进内容生成技术的功能优化和使用场景的创造性拓展。

最后,公众作为使用者也应加强自律意识,善用生成式人工智能技术,明确新技术新工具是用来创造价值、增加社会福祉的。在内容传播上要有责任意识,对接触到的虚假错误内容要坚决说“不”,从个体做起,汇聚推动人工智能技术良性发展的善意力量。反过来,为了提高公众对人工智能技术的认识和理解、对虚假错误内容的辨别能力,政府和有关机构要着力推动科普教育力度,建立信息验证平台,利用讲座、展览等方式普及人工智能技术的基本原理和应用场景,帮助他们认识技术的局限性和各类潜在风险。借助各类公众号、视频号等新媒体平台发布科普文章和视频,提升公众的科学素养和防范意识,培养公众对接收到的各类信息的正确态度和阅读习惯,为构建良好的内容生成生态营造良好的社会环境。

现在,很多机构在积极开发相关的内容监测平台,这方面存在很大技术潜力和积极社会价值。但事实核查有着巨大挑战,目前的治理存在着“道高一尺、魔高一丈”的困境,需要建立政府主导、产学研协同、公众广泛参与的立体化治理体系,形成强大的治理合力。

总之,创新和治理的平衡是人工智能技术发展的永恒主题。

内容生成技术会导致创造力依赖和情感钝化吗

学习时报:智能化一直以来是人类的梦想,但我们都没预料到它会以如此迅猛的速度成为现实。对生成式人工智能技术而言,未来我们需要警惕哪些新兴风险?

薛澜:







请到「今天看啥」查看全文