欢迎来到天天文库
浏览记录
ID:35070834
大小:3.10 MB
页数:69页
时间:2019-03-17
《基于递归神经网络的广告点击率预估》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、ZSTUZhejiangSci-TechUniversity硕士学位论文Master’sThesis中文论文题目:基于递归神经网络的广告点击率预估英文论文题目:Predictionofads’clickthroughratebasedonrecurrentneuralnetwork学科专业:计算机科学与技术作者姓名:余仕敏指导教师:陈巧红完成日期:2015年12月24日浙江理工大学学位论文独创性声明本人声明所呈交的学位论文是本人在导师指导下进行的研究工作及取得的研究成果。除了文中特别加L乂标注和致谢的地方外,论文中不包含其他人己经发表或撰写过的研究成果,也不
2、包含为获得浙江理工大学或其他教育机构的学位或证书而使用过的材料一。与我同工作的同志对本研究所做的任何贡献均己在论文中作了巧确的说巧并表示谢意。学位论文作者签卷:签字曰期:《年3月U曰学位论文版权使用授权书本学位论文作者完全了解浙江理工大举有权俱留并向国家有关部口或机构送交本论文的复印件和磁盘,允许论文被查阅和借阅。本人授权浙江理工大学可Di将学位论文的舍都或部分内容编入有关数据库进行检索和传播,可^乂采用影印、缩印或扫描等复制手段保存、汇编学位论文。(保密的学位论文在解密后适用本授权书)学位论文作者签名:(签字日期:!年月
3、名曰別3f导师签名:、h分f勺签字曰期:斯1^年曰导月浙江理工大学硕士学位论文基于递归神经网络的广告点击率预估摘要伴随着互联网而生的在线广告,在过去几十年里,得到飞速发展。广告点击率作为计算广告的重要研究内容,越来越受到人们的关注。借助机器学习,根据历史数据预估广告点击率是目前的主要方法,凭借准确的广告点击率预估可以使广告投放得更加精准,提高真实的点击率,增加收益。虽然使用线性模型可以简单地预估广告点击率,但是线性模型的学习能力有限,对于越来越多的数据特征,无法更有效得学习,而且在学习的过程中容易出现过度拟合的情况,影响模型对特征的学习。基于神经网络算法的模型
4、采用非线性激励函数以及多层节点结构可以更好得学习大量非线性特征之间复杂的关系,从而提高模型的预估能力。其中,递归神经网络是一种网络中存在环结构、能存储神经元前一时刻的输出并且具有较强的优化计算能力的神经网络。本文主要工作包括以下三个方面:(1)本文针对不同的模型进行相应的特征处理,逻辑回归模型采用拼接显性特征组合提取隐藏用户属性,再通过哈希映射,将原来不同类型的特征值转换成相同类型的特征值。随机森林模型采用建立特征字典,过滤频次过低的样本数,然后进行one-hot编码去处理特征。基于神经网络的模型,本文采用首先计算特征的频次,并建立特征频次字典,将字符型特征转变成整型特征,
5、然后将转化后的特征进行离差标准化,使每个特征的特征值范围在[0,1]之间。(2)递归神经网络虽然已经应用于广告点击率的预估,但是递归神经网络模型采用梯度下降,在趋近最小值时,可能会出现梯度爆发或消失,从而影响预估效果。本文采用基于LSTM(longshorttermmemory)改进的递归神经网络预估广告点击率,利用LSTM去修正RNN,来防止梯度的爆发或消失。实验结果表明基于LSTM改进的递归神经网络模型在预估广告点击率方面取得了较好的效果。(3)本文采用python语言编写逻辑回归模型,随机森林模型、BP(BackPropagation)神经网络模型、递归神经网络模型和
6、基于LSTM(AreaUnderrocCurve)改进的递归神经网络模型。并分别采用sigmoid函数和ReLu函数来训练递归神经网络,实验证明ReLu函数收敛得更快,模型预估的效果更好。模型评估方法采用logloss方法,与AUC相比logloss更能反映模型预估广告点击率的准确性。关键字:在线广告;广告点击率;逻辑回归;随机森林;递归神经网络;LSTMI浙江理工大学硕士学位论文基于递归神经网络的广告点击率预估Predictionofads’clickthroughratebasedonrecurrentneuralnetworkABSTRACTAlongwithther
7、apiddevelopmentofInternet,inthepastfewdecades,onlineadvertisingalsogetrapiddevelopment.Advertisingclick-throughrates(CTR)asanimportantcontentofcomputationaladvertising,starttobecomeanessentialpartoftheindustry.Advertiserusemachinelearningalgorithms,basedonalot
此文档下载收益归作者所有