正文
近日,微软研究人员 Bhaskar Mitra 和 Nick Craswell 在 arXiv 上提交了一篇名为《用于信息检索的神经模型(Neural Models for Information Retrieval)》论文,论文概述了神经信息检索模型背后的基本概念和直观内容,并且将其置于传统检索模型的语境之中。论文的目的在于为神经模型与信息检索之间架起桥梁,互通有无,加快神经信息检索技术的发展。机器之心对该论文进行了编译,论文链接见文末。
信息检索(information retrieval,IR)的神经排序模型使用浅层或深层神经网络来根据查询(query)对搜索结果进行排序。传统的学习排序的模型是在手工标注的信息检索特征上使用机器学习技术,与之相反,神经模型可以从原始文本材料(这些材料可以弥合查询与文档词汇之间的差距。)中学习语言的表征。不同于经典的信息检索模型,在可被部署之前,这些新型机器学习系统需要大量的训练数据。该教程介绍了神经信息检索模型背后的基本概念和直观内容,并且该教程也会把它们置于传统检索模型的语境之中。我们以信息检索基本概念介绍和学习文本向量表征的不同神经、非神经进路开始。然后,我们回顾一下使用预训练的没有端到端学习信息检索任务的神经项嵌入(term embedding)的浅层神经信息检索方法。之后我们会介绍深度神经网络,讨论热门的深度架构。最后,我们会回顾目前用于信息检索的 DNN 模型,并以讨论的形式对神经信息检索未来可能的发展方向进行总结。
近十年来,计算机视觉、语音识别和机器翻译的性能获得了超乎想象的提升,研究领域和现实世界应用领域见证了这一切。这些突破大部分由近期在神经网络模型方面的进步所推动,这些神经网络通常有多个隐藏层,我们称之为深度架构。诸如会话代理(agent)和玩游戏达到人类水平的代理这样令人激动的全新应用也相继出现。现在,信息检索社区也开始应用这些神经方法,这将为提升最先进技术或者甚至在其它领域实现突破带来可能。
信息检索的方式有很多。使用者可以文本查询的方式表达其信息需求,这里所谓的文本查询方式可指键盘键入、选择一个查询建议、声音识别或者图像形式查询,甚至在有些情况下需求不太清楚也可以。检索可以涉及对现存内容的部分进行排序,这些部分可以是文档或简短的文本答案,也可以是通过组合新的答案来具体化检索信息。信息需求和检索结果或许都使用了同样的方式(比如,检索文本文档以响应关键词查询),亦或也有不同方式(比如,使用文本查询进行图像搜索)。检索系统可能会考虑用户历史、物理定位、信息的时间变化或者排序结果时的其它语境因素。这些因素也可能帮助用户形成其的意图(比如,通过自动完成的查询或者查询建议)并且/或者可以帮助用户提炼出更易于检查的简练的结果总结(summaries of result)。
神经信息检索指的是将浅层或深层神经网络应用于这些检索任务之上。该教程目的在于介绍神经模型,其回应查询以进行文档排序,这是一项重要的信息检索任务。一条搜索查询通常可能会包含一些词语,然而文档的长度会根据特定的场景而改变,从几个词到成百上千个句子甚至更长。信息检索的神经模型使用文本的向量表征,通常这包含了大量需要调整的参数。带有大型参数集的机器学习模型通常需要大量的训练数据。不同于传统的学习排序的方法(这些方法在一个手工标注的特征集上训练机器学习模型),信息检索的神经模型通常可以将查询(query)和文档(document)的原始文本(raw text)作为输入。学习文本的恰当表征也需要大量数据训练。因此,不同于经典信息检索模型,这些神经方法非常需要数据,数据越多,性能越好。