Categories
程式開發

AI顶会灌水严重,论文疲于赶场,科学研究变味了?


AI顶会快成灌水园地了。

顶会论文注水严重

注水、抄袭、造假…这两年,AI顶会论文学术不端的现象频频出现,令人咋舌。

近日,一位ICML审稿人的《自白信》火了,他在信中“怒吼”— 停止向大会提交未完稿的论文!

当我审阅到这些未完稿的论文时,我感受到了来自作者的不尊重。

这位审稿人吐槽,他所审阅的超过一半的投稿都是未完稿的论文,且这些论文存在明显的错误。而审阅这样一篇论文需要花费6-7小时,多则10多个小时。

在IJCAI 2020 大会所提交的 5147 篇提交论文中,有 2191 篇论文被拒稿,拒稿率高达42%,很多论文止步在了summary reject 阶段,连正式审稿过程都没进入。这意味着有近半数的论文在质量上不达标,水分很大。

去年11月,荷兰、瑞士两位学者合著的入选SIGIR 2019的论文被指抄袭,部分内容与被RecSys 2018收录的一篇论文高度相似,仅改动个别用词,多处语句对比几乎一字不差,很难令人相信这不是抄的。

一位很有自知之明的网友认真总结了“写水论文是一种怎样的体验”,下面的评论,清一色的表示认同“过于真实”。

AI顶会灌水严重,论文疲于赶场,科学研究变味了? 1

“有些论文水到不忍直视”,网友A君 吐槽道,“吹性能、编算法…论文中很多表述简直在胡扯”。除了包含错误、论文不完整、凑字数等基础性的硬伤,根据知乎上一些大神级网友的总结,一般顶会上的灌水文还经常玩转各种套路,例如,对同一套算法换数据集,同一个问题换模型,把现有的模型/求解方法组合嵌套,优化问题换个loss、 换个regularization ,把2范数换1范数、1范数换非凸等。

深度学习大神李沐曾这样总结灌水文的特征:小白文一般来说是基于前面的工作,做一点细微的改动,然后有理有据的把结果写下来。这样一方面通过实际动手熟悉这个领域,另一方面练习写作。但从读者的角度来说,这些小白文十有八九是灌水。

他还提到了一组耐人寻味的数据,如果回翻任一顶会前10年的论文集,会发现,90%论文的主要是给作者练手,剩下的9%可能会启发数个人,真正能启发很多人的论文就是那1%。

曾在学术界深耕多年后投身工业界的 AI 专家郑凛之(化名)对AI前线称:

即便是顶会,大部分文章都没有什么实质性创新,这称之为‘borderline
’ 文章,有运气的成分在里面。

根源在于科研评价体系机制设置不合理

与论文质量下降形成鲜明对比的是,这几年AI顶会的论文规模实质上是不断攀升的。

AI前线统计发现,ICLR2020投稿数为2600篇,比2019年增长73%,比2018年增长2倍;IJCAI 2020投稿论文5147 篇,比2019年增长8%,比2018年增长48%;NeurIPS 2019 投稿数 6743 篇,比 2018 年增长近 40%;ACL 2019 投稿数近 2700 篇,比2018年增加了 75%。

AI研究热潮带动了顶会论文数量爆发式增长,规模激增后,难免有很多水论文滥竽充数。

NLP领域专家杨明然(化名)向记者描述了他观察到的一些怪象:

一些人做科研急功近利,工作做的不扎实、不深入,很多问题没有研究或阐释清楚就着急出手,更有甚者错误连篇,文章犹如粗制滥造,对他人形成了误导。

他认为,顶会论文灌水背后与学术界的评审机制、价值取向、社会风气等因素有关。现在很多学校和机构盲目强调论文数量,且新的顶会、期刊层出不穷,论文越收越多。

在上世纪80-90年代,一位名校教授到退休时一般研究论文在30篇左右,而现在一个刚博士毕业的人年产20-30篇论文已如稀松平常,可见搞学术的门槛越来越低了。

唯论文论让很多学生压力山大。如今,在顶会发论文,已成了申博的必要条件之一,对很多学生来说,如果没有在顶会发表过论文,很可能意味着很难继续申请到博士学位,也找不到好的工作。今年1月,一位丹麦科技大学的机器学习研究生Andreas Madsen,因为没有发表过顶会论文,申请博士学位失败找工作也四处碰壁,最终他下定决心闭关了8个月,终于成功在顶会上发表了一篇论文。

学术科研变得越来越现实,能够保持纯粹科研初心的学者少之又少了。

只有极少数学者想做真正的研究,大部分人都不热爱研究,只是当作一项工作而已,而业内论文导向又是事实,因此‘刷’论文”成了常态化。

郑凛之还提到国内学术界另一个常见现象:有些导师为了自己评职称,要求学生一定要发好论文,而且第一作者一定要是导师。他调侃自己“不入流”:

我属于从不给学生指标也从不抢一作的导师,所以混不下去了。

今年2月,深度学习先驱Bengio在自己的博客发文直指当下顶会论文发表模式的弊病 — 被拒再投,一稿多投,大家都在 Dealine 之前疲于赶场。他认为,这种“会议发表”模式对提升研究质量来说弊大于利,迫切需要变革。

杨明然认为,媒体对AI的过分炒作也助长了水论文增长。“学研工作一有点噱头,各种媒体就争相报道,完全忽视了领域专家的严格评审,扩大影响力的同时也促进了论文中稿”。

评审人质量下降被认为是顶会论文水化的另一个关键原因。不久前, ICLR 2020的评审引发争议,在这次大会的审稿人中,有 47% 的人没有在相关领域发表过论文。跨领域审稿,显然无法保证专业度。

现在随着各个AI领域细分度增加,找到合适的审稿专家并不容易。有些审稿人仅是硕士水平,甚至很多审稿人并未在顶会发表过论文…香港中文大学助理教授周博磊回顾了自己十年来投稿 CVPR的经历,他表示,确实感受到会议的审稿意见变得越来越随机,不负责任的审稿人越来越多。

南京大学周志华教授在社交平台发出“警言”,如果投稿量远远大于合格投稿人所能承受的程度,会令顶会逐渐垮塌,或者最终只好回到期刊去了。

灌水风气如何破局?

这些顶会是国内外AI学者发表自己研究成果的最高舞台,如果这些上面的论文品控不达标,注水频发,长期以往,必然会透支AI顶会的影响力和信任值。做不出创新性的技术研究,也会成为人工智能发展的“绊脚石”。

为了改变注水之风,一些会议已注意到在论文评审机制上做出改进,如设置过滤机制、要求提交源代码等。

IJCAI2020今年首次引入了desk reject 机制,SPC会在5-10分钟内通判论文情况,质量不合格的直接过滤掉,这大大减轻了审稿人的压力,但因为在第一阶段就过滤掉了近一半的论文,该机制引起争议,甚至有网友表示要抵制IJCAI。

“我学生赶deadline,修改增加了一些文字,时间一着急就提交了,最后论文没审就被‘干’掉了,后来发现是因为论文多了一行,这样的格式问题其实也能理解”,郑凛之觉得desk reject机制肯定存在“误杀”的情况,但他认为为防灌水,要改进顶会论文的审稿机制其实挺难的。

评价本身很难客观,一些论文评价机制本身没有错,但执行上却并不容易,实际中就变成了‘数数’。

ICML 2019 、ICLR 、 NeurIPS 等会议也在尝试将增加实验代码和数据作为论文提交的一个选项。此前大部分投稿人并不提供研究源代码,这让复现工作难以实现。2018年一项针对某2个顶会的调查显示,会议上发表的400篇AI论文,仅6%的论文包含算法的代码,约30%包含测试数据,54%包含伪代码。

“要是必须公开代码的话,掺水论文还怎么发表”,要求提交源代码,能在一定程度上减少论文的水分。但到底应不应该提交源代码?

有观点认为,无法复现就没有意义,迟早得强制,只追求高影响因子,不追求高可复现性的学术氛围是时候做出改变了。但也确实存在因为涉及到核心技术、数据所有权等知识产权不能公开的情况。因此综合来看,现阶段,搞“一刀切”强制提交代码不太人性化,但推出一些鼓励机制鼓励公开代码是可以的。

值得一提的是,今年以来,科技部多次发文表示要改进科技评价体系,1月底,科技部下发通知要求科研人员“把论文写在抗击疫情的第一线,把研究成果应用到战胜疫情中”。

2月23日,科技部正式印发了《关于破除科技评价中“唯论文”不良导向的若干措施(试行)》通知,通知的核心目标是改进科技评价体系,明确要求破除科技评价中过度看重论文数量多少、影响因子高低等“唯论文”不良导向。

变革不是一日之功,学术研究经年累积形成的风气和制度体系可能很难在短时间内改变,正如一位网友所担忧的“副作用”,

评价体系不好改,总不能学校养着一堆教授“摸鱼”吧?
这些改进举措是否有成效还需要时间来验证,但令人欣慰地是,科研评价体系的各个参与方已经在做出努力,期待这些不良学术风气能够在不久的将来有所改善。

最后,借用周博磊教授的一句话作为本文的结语:

保持对科研的敬畏和好奇,这条路才能越走越宽,越走越远。

(应受访人要求,文中人名均为化名)。