正文
输入
TrustRAG: Enhancing Robustness and Trustworthiness in RAG
方法:
论文提出了 TrustRAG,一个用于增强检索增强生成系统鲁棒性和可信度的框架,通过 K-means 聚类过滤潜在恶意文档,并结合语言模型的内部知识与外部信息进行冲突解决和自评估,生成准确可信的回答。
创新点:
-
通过K-means聚类结合余弦相似度与ROUGE指标,高效识别过滤恶意文档,显著降低攻击成功率。
-
融合语言模型内部知识与外部文档,通过自评估机制解决冲突,提升回答准确性与可信度。
-
无需训练,可灵活集成至任意语言模型,多数据集验证其防御效果优越。
模型/范式
R1-VL: Learning to Reason with Multimodal Large Language Models via Step-wise Group Relative Policy Optimization
方法:
论文提出了一种新的在线强化学习框架StepGRPO,通过引入逐步推理奖励机制,帮助多模态大模型提升推理能力。它利用软关键步骤匹配和逻辑评估为推理过程提供密集奖励,解决了传统方法中奖励稀疏的问题,从而让模型更好地理解和生成推理路径。