专栏名称: CSDN
CSDN精彩内容每日推荐。我们关注IT产品研发背后的那些人、技术和故事。
目录
51好读  ›  专栏  ›  CSDN

WSDM 2017精选论文解读

CSDN  · 公众号  · 科技媒体  · 2017-03-09 12:56

正文

请到「今天看啥」查看全文


Real-Time Bidding by Reinforcement Learning in Display Advertising


摘要:传统中,Real-Time Bidding(RTB)把Bidding考虑成为静态的决策过程。这篇文章,则是把Reinforcement Learning(强化学习)引入到RTB的应用中,从而提高RTB的效率和整体效果。


这篇文章的作者团队来自上海交大和伦敦大学学院(University College London)。此文是继强化学习被应用到搜索和推荐领域之后,又一个把强化学习应用到一个重要领域的尝试。与推荐和搜索不同的是,RTB因为其实时性,更加讲究能够对于一个决策过程进行动态调整,从而能够提供最优的解决方案。目前大多数Bidding算法或者是策略(Strategy)的核心问题,就是他们都是静态的一个决策过程。那么,这篇文章的主要思路就是用Markov Decision Process(MDP)来对RTB进行建模。MDP的一般建模,需要三个必备元素,那就是State、Action和Reward。这里,State是一个(当前时间,剩余预算,当前Feature Vector)三元组;Action则是以State为输入,输出一个少于当前预算的Bid;Reward在这篇文章里定义为在当前Feature Vector为输入情况下的点击率(CTR)或者是0(没有赢得Auction的情况)。MDP除了这三个要素以外,一般还需要定义从每一个状态跳转另外状态的转移概率。文章中,转移概率是一个Feature Vector的概率分布和市场价格分布的一个乘积。市场价格分布取决于现在的Feature Vector和当前的Bid价格。整个MDP的布局设置好以后,RTB的问题就转换成为了如何在MDP中找到最优Action的决策问题。和传统的MDP一样,文章介绍了通过Value Iteration的方式来找到最佳的Value函数,然后通过找到的Value函数,来找到最佳的Bidding策略。然而,这样的方法,只适合在比较小规模的数据上,原因是第一个阶段的得到最佳Value函数的步骤太过于耗时。文章介绍了一种在大规模数据上的思路,通过小数据来学习Value函数的表达,然后应用到大规模数据上。文章在两个数据集上做了实验,一个是PinYou的数据,另一个是YOYI的数据,数量都算是当前比较大的RTB数据集了。从实验结果上来看,采用MDP的方法能够比其他方法大幅度有效提高CTR,以及各项指标。除了在这两个数据集上的结果以外,这篇文章还在Vlion DSP的线上系统进行了评测,在CTR基本和以前方法持平的情况下,CPM和eCPC都更加有效。总之,这篇文章对于希望探索强化学习在广告或者是推荐以及搜索等领域的应用有着一定的借鉴意义。从目前的情况来看,算法依然比较复杂,而且Value函数的逼近可能有不小的性能损失。另外,参考文献部分十分详尽,对于想了解RTB的朋友来说,是一个不可多得的言简意赅的介绍。







请到「今天看啥」查看全文