本文介绍了新加坡政府发布的《用于生成式人工智能模型的治理框架》(MGF for GenAI),该框架旨在应对生成式人工智能技术的迅猛发展,并涵盖了九个核心领域。本文梳理了框架的主要内容,包括问责制、数据、可信赖的开发和部署、事件报告、测试与保证、安全性、内容出处、安全与对齐研发(R )以及人工智能促进公共利益等方面。该框架虽不具备强制执行力,但为行业提供了一套道德和透明度的开发准则,体现了新加坡政府对AI技术健康发展的期望。
文章详细列举了治理框架的九个核心领域,包括问责制、数据、可信赖的开发和部署等,并简要概述了每个领域的核心内容。
文章指出该框架为行业提供了一套道德和透明度的开发准则,体现了新加坡政府对AI技术健康发展的期望,同时也为国际舞台上的标准制定提供了参考。
文章最后介绍了AI与网络法团队的宗旨、成员以及联系方式。
【主要内容】
执行摘要
报告开篇强调了生成式AI的变革潜力及其伴随的风险,呼吁建立一个能够激发创新同时保护用户利益的可信生态系统。报告提出需要对现有管理框架进行审查,并在保护用户和推动创新之间找到平衡。
1.问责制
事前分配责任:在AI开发前期,根据各利益相关方的控制水平分配责任,确保有能力的一方能够采取行动保护用户。
事后安全网:建立共同责任模式,明确问题发生时的补救措施,并考虑赔偿和保险概念,为最终用户提供保障。
2.数据
个人数据的可信使用:阐明现有个人数据法律对生成式AI的适用性,使用隐私增强技术(PETs)保护数据隐私。
平衡版权与数据无障碍:探讨版权材料在训练数据集中的使用,以及版权所有者的同意问题。
3.可信赖的开发和部署
披露:提倡“食品标签”式的透明度,向用户提供模型的关键安全措施信息。
基线安全实践:围绕开发和安全评估的最佳实践,形成行业合力。
4.事件报告
建立报告结构:即使在健全的开发流程下,也需建立事故监控和报告的流程,实现及时通知和补救。
5.测试与保证
第三方测试:借鉴现有审计实践,发展AI第三方测试生态系统,提供独立验证。
6.安全性
适应安全设计:在系统开发生命周期的每个阶段设计安全性,减少系统漏洞。
制定新的安全保障措施:开发新的工具,如输入过滤器和数字取证工具,应对生成式AI特有的安全挑战。
7.内容出处
技术解决方案:利用数字水印和加密出处技术,提高内容真实性的透明度,帮助用户区分AI生成内容和原创内容。
8.安全与对齐研发(R&D)
加速研发投资:提高模型与人类意图和价值观的一致性,通过全球合作优化资源,产生最大影响。
9.人工智能促进公共利益
技术普及化:确保所有社会成员都能使用生成式AI,并通过数字扫盲活动提高公众对AI的理解。
提供公共服务:利用AI提高公共服务的效率和用户体验。
劳动力:提高劳动力技能,以适应AI带来的变化。
可持续性:考虑AI对环境的影响,开发节能计算技术。
结论与未来发展
报告总结了九个方面的治理框架,并强调了全球合作的重要性。报告还感谢了为治理框架提供反馈的个人和组织,并展望了未来的发展,包括实施指南和资源的开发。
整体而言,该报告为生成式人工智能的治理提供了一个全面的框架,涵盖了从技术开发到部署、从安全性到公共利益的多个方面,旨在确保AI技术的健康发展和广泛应用。