主要观点总结
本文主要讨论了开源大模型的风险及其治理方式。文章提到开源大模型之所以宝贵,是因为其低门槛、高透明度带来了源源不断的创意和改进。但同时,大模型技术本身蕴含的风险也需要引起重视。为此,开源大模型的治理需要实现双重目标:确保开源生态的生命力和对大模型重大风险进行防范。文章主要从开源社区的角度探讨了治理策略,包括为开源者搭建可预期的责任避风港、从开源文化中借鉴治理智慧等。
关键观点总结
关键观点1: 开源大模型的优点和风险
开源大模型因其低门槛和高透明度而宝贵,但也存在风险,如技术缺陷、滥用等。
关键观点2: 开源大模型的治理目标
开源大模型的治理需要实现双重目标:确保开源生态的生命力和防范大模型的重大风险。
关键观点3: 为开源者搭建可预期的责任避风港
为了提高开源者的积极性,需要为开源者搭建可预期的责任避风港,明确模型开发者与应用者的责任边界,区分产业上下游的角色,并明确不同主体的“风险管控能力”。
关键观点4: 从开源文化中借鉴治理智慧
开源生态的透明开放、平等协作的特征,可以借鉴到开源大模型的治理中。社区自律与监督是开源治理的核心一环,同时多方参与协作也是关键。
正文
。从仅提供API接口的全封闭,到模型架构、权重公开,乃至训练数据开放的完全开源,中间有许多层次。
注1:图片根据斯坦福大学基础模型研究中
心论文
[9]
结合公开的许可证信息制作
注2:开源要素——模型参数架构、模型权重、源代码、实现方法、训练数据
注3:在当前开源的主流大模型中, DeepSeek-R1模型的开放更为彻底:开放权重、代码,并通过技术文件公开重要的训练方法。相比之下,LLaMA 2采用定制许可,允许商业使用但附加条件(要求月活跃用户在超过7亿的用户必须向Meta单独申请许可)
综上,大模型的开放程度形成了一个丰富的谱系。从治理角度,也需要针对模型开放度的不同层次分类施策。为便于讨论,下文所提到的开源大模型,以目前行业主流标准为依据,是指模型参数公开透明,
开源许可中除禁止用于违法用途等一般声明外,允许用户自由运行、研究,修改的模型。
开源之所以宝贵,是因为其低门槛、高透明度带来了源源不断的创意和改进。但与此同时,大模型技术本身蕴含的风险——从幻觉到被非法滥用——也真实存在。具体来说,开源大模型治理需要实现“双重目标”:
一方面,首要确保开源生态的生命力,实现“创新自由”,为开源者搭建可预期的责任避风港,
对善意的开源探索给予充分的空间,以吸引更多开发者参与开源,推动开源技术繁荣发展;
另一方面,针对开源风险的独特性,构建开源AI治理的“社区秩序”,不致引发重大危害。
这其中:开源本身的发展历史提供了许多宝贵经验,从社区自治到协同治理,将为开源模型的安全治理提供重要启示。
一是在纵向上:区分产业上下游,明确模型开发者与应用者两类角色,明确责任边界。
责任分配的基本出发点是要考虑主体的“风险管控能力”。
模型开发者掌控模型设计研发与训练,而部署者深入具体应用场景的细节,二者就大模型的安全风险在管控能力上存在本质差别。因此,当下各国AI治理的共识之一便是对产业主体角色进行区分,并适配不同的治理责任。例如:
欧盟《人工智能法》
明确了两类不同主体:
模型开发者
(Provider)
,其主要责任在于保障其开发的AI系统符合安全性、透明性等要求。采取风险评估、适当的技术措施来增强AI系统的可靠性;
模型部署应用者
(Deployer)
主要确保AI系统在应用过程中符合法规要求。对高风险AI系统进行持续监控,面向用户提供充分的权利保护机制等。
美国加州2024年SB-1047法案
中的争议也体现了分类治理的认知。该法案初始没有明确区分“开发者”和“部署者”,而是几乎将所有义务集中加在“模型开发者”
(provider)
身上。此提案引发包括李飞飞在内的产业界人士强烈反对
[10]
。有专家指出:SB-1047 将部署者应承担的使用责任转嫁给开发者,相当于让“电机制造商为电锯的使用事故负责”
[11]
。该法案最终被否决。
我国《生成式人工智能服务管理暂行办法》
将分类治理的思路往前推进一步。规章对模型研发阶段做出了整体性的豁免。除非面向公众提供服务,作为服务提供者承担研发阶段的相关要求,如数据治理的基本规范。这实际形成了一种“激励研发探索的沙盒”:在研发阶段,允许包括开源社区在内的各类主体自由探索;一旦进入应用阶段,特别是公众可触及的服务,再将服务本身纳入监管。