欢迎来到天天文库
浏览记录
ID:28109086
大小:296.50 KB
页数:7页
时间:2018-12-08
《疯狂的不只是论文总数,还有学术垄断.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、疯狂的不只是论文总数,还有学术垄断 作为人工智能领域的顶会,已经有30年历史的NIPS今年以来一直风波不断。先是被爆出NIPS2017出现了性骚扰行为,然后又被diss会议名称太色情,需要改名。之后,又有人在网上爆出,一名刚刚毕业的本科生成为大会论文同行评审,立马遭到新一轮的diss。 不过,大家似乎都是口是心非。NIPS并没有因此而门前冷落,反而火爆异常。仅仅11分38秒,NIPS正会门票就卖光了。不仅如此,今年的NIPS收到了4856篇论文投稿,比去年的3240篇增长了近50%。本次大会接收的论文总共1011篇,去年只有679篇,不过接收率倒是维持在20%左右。
2、 疯狂的不只是论文总数,还有学术垄断。 IBM工程师InkitPadhi统计的数据显示,本届NIPS大会GoogleResearch以107篇论文位列第一,几乎占据了接收论文总数的10%,而去年这个数字还是60。除此之外,MIT、斯坦福、CMU等美国名校分别以68、57、53的位列前四。 通过下面的两张图可以发现,美国的几大科技公司和几大名校一如既往地占据了本届NIPS的半壁江山,相比去年,并没有任何改善的迹象。当然,这也与这些美国机构强大的经济和科研实力有关。 当然,国内的清华大学和腾讯也有不错的表现,其中清华大学共有21篇论文被接收,腾讯的A
3、ILab共有17篇论文被接收。但是跟美国同行比,还是有很大的差距。 要知道,在7月份的IJCAI大会上,中国学者获多篇DistinguishedPaper奖,中国人论文46%,华人一作论文占总接收论文的65.5%。而且南京大学教授周志华还当选IJCAI2021年程序主席,成为IJCAI史上第二位华人大会程序主席。 不过,这并不代表中国没有进步。在NIPS2017上,清华大学还只有12篇论文被接收,而腾讯的AILab也只有9篇,今年虽然论文的绝对数量和美国同行还有差距,但增长迅速,未来可期。 与此同时,作为国内机器学习领域的领军人物,南京大学的周志华教授本次也有5篇
4、论文被接收。通过这些论文,读者可以一窥目前AI领域比较前沿的研究方向。受文章篇幅所限,本文只对这5篇论文的摘要进行了介绍,想要详细了解的可以查看完整论文。 1、UnorganizedMaliciousAttacksDetection 论文作者:MingPang·WeiGao·MinTao·Zhi-HuaZhou 论文摘要:在过去十年里,推荐系统领域备受关注。许多攻击检测算法被开发,以便获得更好的推荐系统,其中大部分研究主要是着眼于shillingattacks。shillingattacks主要是一类通过相同策略生成大量用户配置文件以提升或降低推荐项目位置的攻
5、击。在本文中,我们考虑了不同攻击方式:无组织的恶意攻击,即攻击者在无组织的情况下单独使用少量的用户配置文件来攻击不同的项目。这种攻击类型在许多实际应用中都非常常见,但对其的相关研究却较少。我们首先将无组织恶意攻击检测构建为矩阵补全问题,并提出无组织恶意攻击的检测方法(UMA),即近似交替分裂增广拉格朗日法。在大量的实验中,我们从理论和实证的角度分别验证了所提方法的有效性。 2、PreferenceBasedAdaptationforLearningObjectives 论文作者:Yao-XiangDing·Zhi-HuaZhou 论文摘要:在许多实际的学习任务
6、中,我们很难直接优化真实的工作指标,也很难选择正确的替代目标。在这种情况下,我们可以基于对真实测量值和目标之间进行弱关系建模,再将目标优化过程融入到循环学习中。在本文,我们研究一种目标自适应的任务,其中学习者通过迭代的方式来适应来自于oracle的偏好反馈的真实对象。实验证明,当目标可以进行线性参数化时,该学习问题能够通过利用banditmodel得到解决。此外,我们还提出了一种基于DLM算法的新颖采样方法,用于学习优化的参数,其具有较强的理论证明和有效的实践应用。为了避免在每个目标函数更新后都要从头开始学习理论假设,我们进一步提出了一种改进的自适应方法,来有效地将每
7、个预学习的元素假设迁移到当前目标中。我们将以上的方法应用于多层标签学习中,并证明了该方法在各种多标签的工作指标下能够展现出高效的性能。 3、Multi-LayeredGradientBoostingDecisionTrees 论文作者:JiFeng·YangYu·Zhi-HuaZhou 论文摘要:多层表征方法被认为是深度神经网络的关键要素,尤其是类似于计算机视觉的感知任务。虽然,诸如梯度增强决策树(GBDT)之类的非可微模型是针对离散或列表数据进行建模时所采用的主要方法,但是它们很难与这种表示学习能力相结合。本文,我们提出了
此文档下载收益归作者所有