编者:本文来自搜狗资深研究员舒鹏在携程技术中心主办的深度学习Meetup中的主题演讲,介绍了深度学习在搜狗无线搜索广告中的应用及成果。关注携程技术中心微信公号ctriptech,可获知更多技术分享信息。文末可下载演讲PPT。
搜索引擎广告是用户获取网络信息的渠道之一,同时也是互联网收入的来源之一,通过传统的浅层模型对搜索广告进行预估排序已不能满足市场需求。近年来,深度学习在很多领域得到广泛应用并已取得较好的成果,本次演讲就是分享深度学习如何有效的运用在搜狗无线搜索广告中。
本次分享主要介绍深度学习在搜狗无线搜索广告中有哪些应用场景,以及分享了我们的一些成果,重点讲解了如何实现基于多模型融合的CTR预估,以及模型效果如何评估,最后和大家探讨DL、CTR 预估的特点及未来的一些方向。
一、深度学习在搜索广告中有哪些应用场景
比较典型的深度学习应用场景包括语音识别、人脸识别、博奕等,也可以应用于搜索广告中。首先介绍下搜索广告的基本架构,如下图:
1、首先用户查询。
2、查询词给Bidding Server处理,Bidding Server主要负责业务逻辑。例如某种广告在什么情况下不能展现,或这个客户同一个广告在什么时间段什么地域展现。
3、Bidding Server请求Retriever Server,Retriever Server主要负责召回,广告库很庞大(搜狗的广告库大概在几十亿这个规模),因为数据量非常大,所以需要根据一些算法从中找出和当前查询词最相关的一批广告,这就是Retriever Server做的事情。
4、Retriever Server处理完后,会把这些比较好的广告回传给Quality Server,Quality Server主要负责点击率预估和排序,此时的候选集数量相对较少,Quality Server会采用复杂的算法针对每条广告预估它当前场景的点击率,并据此排序。
5、Quality Server将排序结果的top回传给Retriever Server。
6、Retriever Server回传给Bidding Server。
7、Bidding Server做封装最后展示给用户。
以上过程中可应用到深度学习的场景如下:
二、基于多模型融合的CTR预估
2.1 CTR预估流程
CTR预估的流程图如下:
1、Data是原始数据,包括点击及查询日志,从这些原始数据里抽出一些特征。
2、Feature包括查询特征、广告特征、匹配特征。
查询特征是和查询词相关的特征,查询发生的地域、时间等。广告特征是指广告本身的信息,例如:来自哪个客户,是哪个行业的,它的关键词是什么,它的标题、描述、网址是什么等各种信息。匹配特征是指查询词和广告的匹配关系。
3、然后会进行模型的训练,包括线性和非线性。
4、模型在线下训练完后会到线上,线上Server会实时做特征抽取并预估。
例如:线上实时收到查询请求后,就会知道查询词是什么。前面讲的Retriever server,它会召回一系列广告,并抽出相关信息,比如广告的标题、关键词、描述等信息,有了这些信息后会利用加载的模型给出预估CTR,最终会进行Rank排序,从而筛选出满足指定条件的一些广告进行展示。
2.2 特征设计
1、离散特征
离散特征是指把东西分散出来表示,比如OneHot,非常直观,例如用户当天所处的时间段,他和最终点击率有关系,那么我把一天24小时分成24个点,他在哪个小时就把哪个点点亮置1,这个特征就设计完了。它的刻画比较细致,设计比较简单,但他的特征非常稀疏,我们线上特征空间非常大,有上十亿,但任何一个请求场景到来,它真正有效的特征大概只有几百个,绝大部分都是空的。因为特征量非常大,不能设计太复杂的模型,否则无法用于线上。
离散特征总结:容易设计,刻画细致,特征稀疏,特征量巨大,模型复杂度受限。
2、连续特征
还是以时间举例,离散特征会把它变成24个点,连续特征就会变成一个值,比如1、2、3、4、5一直到24,它只会占一个位置。需要仔细设计,很难找到一个直接的方法来描述查询词中包括哪些东西。它是定长的,所以一个请求场景到来,它有多少特征是固定的。不像离散特征是不定长,查询词不一样,有的是两个特征或三个特征,对于特征点可能有两个或三个,这对于我们后面的工作也有一定的影响。连续特征比较稠密,每个位置都会有值,它特征量相对较小,如果用连续特征设计的话可能需要几百维就可以,因此可以使用多种模型来训练。
连续特征总结:需要仔细设计,定长,特征稠密,特征量相对较小,可以使用多种模型训练。
2.3 模型类别
1、线性
优点:简单、处理特征量大、稳定性好,缺点:不能学习特征间的交叉关系,需要自己去设计。比较典型的如Logistic Regression,有开源的工具包,部署简单且效果不错。
2、非线性
优点:能够学习特征间非线性关系,缺点:模型复杂、计算耗时。
比如LR模型就算特征再多,它只是查表加在一起做指数运算就出来了,像DNN、GBDT就会非常复杂,导致计算过程比较慢。
总结:Logistic Regression即能处理连续值又能处理离散值。DNN几乎不能处理离散值,除非做特殊的预处理。
2.4 模型融合
前面讲过每个模型都有自己的特点:Logistic Regression 处理特征量大,大概在2010年前后开始大量应用于业界,很难有模型能完全超越它;DNN可以挖掘原来没有的东西。我们就想这两个模型能不能将优点进行融合,扬长避短,从而得到更好的结果。
第一种方案:CTR Bagging
有多个模型,将多个模型的输出CTR加权平均。
实现方法简单,模型之间不产生耦合。
可调参数有限,只能调Bagging权重的参数,不能调其他东西,所以改进空间相对较小。
第二种方案:模型融合
任一模型的输出作为另一模型的特征输入,彼此进行交叉。
实现方法复杂,模型之间有依赖关系,因依赖关系复杂,风险也比较高。
好处是实验方案较多,改进空间较大。
我们选了后一种方案,因为单纯CTR Bagging太过简单粗暴了。
2.5 模型融合的工程实现
目标
可支持多个不同模型的加载和计算
可支持模型之间的交叉和CTR的bagging
可通过配置项随时调整模型融合方案
避免不必要的重复操作,减少时间复杂度
解决方法(引入ModelFeature的概念)
模型本身也看做一个抽象特征
模型特征依赖于其他特征,通过计算得到新的特征
模型特征输出可作为CTR,也可作为特征为其他模型使用
限定ModelFeature的计算顺序,即可实现bagging模型交叉等功能
2.6 模型融合
模型融合流程图如下:
1、首先线下,将PV、Click、Session做成一个sample。
2、然后把sample做成特征,包括OneHot、CTR。
3、分别将OneHot、CTR传送到各自模块的train,就会得到相应的模型。
4、线上,Bidding Server 会经过 Retriever Server召回广告。
5、然后传给Quality Server进行计算,它是通过One Case存储和这个查询相关的所有信息。
6、Quality Server会把One Case里的信息转换成One Hot特征。
7、然后将结果存到特征池,特征池包含所有特征。
8、LR模型从特征池里读取数据,而后计算出CTR,还包括其他增量信息。
9、将这些回送到特征池。
10、此外DNN模型也会读取特征池里的信息,并将最终计算结果回传给特征池。
11、CTR可以从特征池里直接取出,然后进行后续的操作。
我们去年将这套框架部署到线上,并持续进行改进,在线上运行了半年多,基本能适用于业务的发展:曾经上线了LR和DNN的交叉,还上线了LR和GBDT的融合。GBDT会将过程信息回传给LR,由LR完成最终输出。此架构经过生产系统的检验,运转正常。
2.7 模型效果评估
期间我们会做很多实验,比如DNN训练比较耗时,线上也比较耗时,因此我们会进行多种优化和评估。那么就涉及到一个问题,如何评估一个模型的好坏?线下指标主要采用AUC,定义如下图所示:
我们来分析下这个图,选定一系列阈值将对应一系列点对,形成一条曲线,曲线下方的面积总和就是AUC的值:红线就是纯随机的结果,对应的AUC是0.5;模型越好,曲线离左上角就越近。这个值在我们模型评估里用得非常多,该值考察的是模型预估的排序能力,它会把模型预估排序结果和实际结果进行比对运算。该值很难优化,一般而言,AUC高,模型的排序能力就强。
线下指标AUC很重要,但我们发现单纯靠这指标也是有问题的,不一定是我们的线上模型出了问题,可能是其他的问题。做广告预估,AUC是线下指标,除此之外,最核心的指标是上线收益,有时这两个指标会有不一致的地方,我们也尝试去定位,可能的原因主要有:
1、Survivorship bias问题:线下训练时所有的数据都是线上模型筛选过的比较好的样本,是我们展示过的比较好的广告,一次查询三条左右,但实际上到了线上之后,面临的场景完全不一样。前面讲过RS筛选出最多近千条广告,这些广告都会让模型去评判它的CTR大概是多少,但实际上训练的样本只有最终的三条,对于特别差的广告模型其实是没有经验的。如果一个模型只适用于对比较好的广告进行排序,就会在线上表现很差,因为从来没有见过那些特别差的广告是什么样的,就会做误判。
2、特征覆盖率的问题,例如:我们有个特征是和这个广告自身ID相关的,该信息在在线下都能拿到,但真正到了线上之后,因为广告库非常大,很多广告是未展示过的,相关的信息可能会缺失,原有的特征就会失效,线上该特征的覆盖率比较低,最终将不会发挥作用。
2.8、并行化训练
做DNN会遇到各种各样的问题,尤其是数据量的问题。大家都知道模型依赖的数据量越大效果越好,因为能知道更多的信息,从而提升模型稳定性,所以我们就会涉及到并行化训练的事情。
1、加大数据量,提升模型稳定性
我们做搜索广告有一个重要指标:覆盖率,是指此情况下是否需要显示广告。覆盖率高了,用户可能会不满意,而且多出来那些广告多半不太好;但如果覆盖率很低,又等于没赚到钱。这个指标很重要,所以我们希望融合模型上到线上后覆盖率是可预测的。
我们发现这个融合模型会有自己的特点,上到线上之后会有些波动。例如:今天我们刚把模型覆盖率调好了,但第二天它又变了。然后我们分析,可能是因为数据量的问题,需要在一个更大的数据集上训练来提升模型的稳定性。
2、加大数据量,提升模型收益
其实就是见多识广的意思,模型见得多,碰到的情况多,在遇到新问题的时候,就知道用什么方法去解决它,就能更合理的预估结果。
我们调研了一些方案,如下:
Caffe只支持单机单卡
TensorFlow不支持较大BatchSize
MxNet支持多机多卡,底层C++,上层Python接口
MxNet我们用得还不错,基本能达到预期的效果。
三、若干思考
3.1 Deep Learing的强项
输入不规整,而结果确定。
例如:图像理解,这个图像到底是什么,人很难描述出到底是哪些指标表明它是一个人脸还是猫或狗。但结果非常确定,任何人看一眼就知道图片是什么,没有争议。
具体到我们的广告场景,广告特征都是有具体的含义。例如:时间信息,说是几点就是几点,客户的关键词信息,它写的是什么就是什么,文本匹配度是多少,是高还是低,都有确定的含义。
3.2 CTR预估
输入含义明确,场景相关,结果以用户为导向。
例如:一个查询词,出现一条广告,大家来评判它是好是坏,其实它的结果是因人而异的,有人觉得结果很好,而有人却觉得一般,它没有一个客观度量的标准。所以我们认为CTR预估跟传统的DL应用场景不太一样。
我们DNN用到线上后,收益大概提升了百分之五左右,但相对Deep Learing在其他场景的应用,这个提升还是少了些。语音输入法很早就有人做,因为准确率的问题一直没有太大应用,但Deep Learing出来后,比如讯飞及我们搜狗的语音输入法,用起来很不错,准确率相比之前提高了一大截。
3.3 未来方向
Deep Learing既然有这些特性,我们会根据特定的业务场景进行应用,比如在某些情况下把它用上去效果会很好,我们还想做一些模型融合的事情。
我们做实验发现把DNN和LR融合后,最好的结果相比LR本身,AUC大概高不到一个百分点。我们也尝试过直接把DNN模型用到线上去,效果很差,就算在线下跟LR可比,但到线上后会有一系列问题,不管是从覆盖率还是从最终收益都会有较大的差异,这是我们在搜狗无线搜索数据上得出的实验结论,大家在各自的业务场景下可能有所区别。
如果你们没有足够经验去手工做各种交叉特征的设计,直接用DNN可能会有好的成果。如果在非常成熟的模型上做,可能需要考虑下,收益预期不要太高。
(本文由携程技术中心余清兰整理)
演讲PPT下载:
声明:本文由携程技术中心原创,如需转载请邮件niuq#ctrip.com(#改为@)。
深度学习Meetup系列:
深度学习在携程攻略社区的应用
深度学习在搜狗无线搜索广告中的应用
知识库上的问答系统:实体、文本及系统观点
用户在线广告点击行为预测的深度学习模型
知识图谱中的推理技术及其在高考机器人中的应用
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。