专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
目录
相关文章推荐
阿昆的科研日常  ·  被导师夸好看的配色~科研配色收藏第32期 ·  1小时前  
募格学术  ·  国家税务总局直属事业单位2025年度招聘公告! ·  19 小时前  
研之成理  ·  宁德时代,Nature ... ·  3 天前  
研之成理  ·  中科院物理所,Nature Materials! ·  3 天前  
研之成理  ·  中科大吴宇恩/张钰团队Nat.Commun: ... ·  3 天前  
51好读  ›  专栏  ›  PaperWeekly

告别过平滑!浙大团队提出Rankformer:直接优化排序的Transformer架构

PaperWeekly  · 公众号  · 科研  · 2025-05-16 13:12

正文

请到「今天看啥」查看全文


为边数),效率比肩轻量级模型 LightGCN。

论文题目:

Rankformer: A Graph Transformer for Recommendation based on Ranking Objective

论文链接:

https://arxiv.org/pdf/2503.16927

论文源码:

https://github.com/StupidThree/Rankformer



模型细节

具有全图注意力的图 Transformer 机制 :Rankformer 堆叠多个图 Transformer 层,每层按如下方式,为用户/物品聚合所有的物品/用户信息:

包含排序信号的聚合权重 :在聚合节点信息时,Rankformer 的权重如下设计,包含了相似度项、基准项和偏移项:

相似度项(Similarity) :类似于传统 Transformer 中的注意力机制,相似度项衡量实体之间的 基础匹配度 。该项能识别与用户历史行为高度相关的物品,例如,用户常买电子产品,则相似度高的“新款耳机”会被优先关注。


基准项(Benchmark)







请到「今天看啥」查看全文