专栏名称: 蚂蚁技术AntTech
分享蚂蚁集团的技术能力和技术文化。
目录
相关文章推荐
游戏那点事Gamez  ·  畅销Top2,多国破纪录:《鸣潮》这一爆让行 ... ·  3 天前  
游戏那点事Gamez  ·  曝光10余款新品储备,这家上海公司的“全球战 ... ·  2 天前  
游戏那点事Gamez  ·  经历5轮裁员的“逆天”公司,被腾讯10亿买下 ... ·  2 天前  
海安新鲜事传媒公司  ·  在南通做这个“特殊”行业的,你知道多少? ·  2 天前  
海安新鲜事传媒公司  ·  在南通做这个“特殊”行业的,你知道多少? ·  2 天前  
山西省文化和旅游厅  ·  十年十人 | 千年漆艺的重生与蝶变 ·  2 天前  
51好读  ›  专栏  ›  蚂蚁技术AntTech

面向工业级推荐!“小”LLM也能做好推荐系统

蚂蚁技术AntTech  · 公众号  ·  · 2024-03-11 18:29

正文

请到「今天看啥」查看全文


避免偏差

利用开放世界知识减少推荐系统对历史数据中偏见的依赖,从而 实现 更加公正和多样化的推荐。


在后续的实验部分,我们也通过直观的例子验证了LLM的世界知识和推理能力对提升推荐准确度、可解释性和缓解冷启动问题、流行度偏差问题的帮助。



当前,基于LLM的推荐系统主要分为两大类:


01

直接以LLM作为推荐系统(Ranker)

这类方法直接通过已经训练完成且参数固定的LLM,生成符合用户兴趣的排序/召回列表。然而,相较于依靠特定领域协同知识的传统推荐系统,这类方法仅依赖于LLM的零样本或小样本学习能力往往无法取得令人满意的效果。

02

以LLM作为知识提取器(Knowledge Enhancer)

这类方法通常遵循相似的级联架构,即首先通过合适的指令让LLM生成知识(总结用户偏好或者提取商品的事实知识),然后将生成的开放世界知识与传统推荐模型的域内知识、协同知识进行融合。一般来说,这种融合两种知识体系的方法能够带来更出色的推荐性能。



尽管如此,将基于LLM的推荐系统部署到实际的业务环境将面临巨大的存储和计算资源的开销,其带来的高推理成本以及高在线时延的压力是我们无法逾越的鸿沟。


举个例子,部署一个相对较大且推理能力较强的大模型如LLaMA-70B,需要8块A100的服务器;另外,如果我们调用ChatGPT-3.5来达到我们推理的需求,每1000token的输入需要$0.0015,每1000token的输出需要$0.002,这将带来巨大的调用开支,并有可能面临数据泄漏的风险。


因此,为了更高效地将LLM的开放世界知识和推理能力整合到推荐系统中, 我们提出了基于蒸馏的大模型推荐方案(SLIM),希望蒸馏得到可以单卡部署且推理效果媲美GPT-3.5的小语言模型,使得推荐系统能够以资源高效的方式享受LLM的能力。


2

模型方案


大模型推荐框架“SLIM”针对推荐任务将大模型的能力蒸馏到小语言模型,使得传统推荐系统能够以资源高效的方式利用LLM的核心推理能力。具体地说,我们针对序列推荐任务,开发了一种分步(Step-by-step)知识蒸馏策略,用于将LLM(即教师LLM)的推理能力迁移到“小”语言模型(即学生LLM)。


该策略通过思维链提示(CoT Prompting)的方式引导较大的教师模型对复杂推荐任务进行宏观到微观的思考;继而通过蒸馏过程,使参数仅为教师LLM 4% 的学生LLM可以获得与教师LLM相媲美的分步推理能力。


随后,我们直接将小语言模型(即学生LLM)部署为序列推荐系统的知识生成器,生成与推荐高度相关的高质量推理知识;这些知识反映了用户对类别、品牌和特定商品的偏好,可以灵活地与ID-based或者ID-agnostic的传统推荐模型集成。SLIM模型整体架构如下所示:



2.1








请到「今天看啥」查看全文