[转]为什么不读顶级会议论文?

看了版上很多贴子,发现很多版友都在问“热门研究方向”、“最新方法”等。有同学建议国内某教授的教材、或者CNKI、或者某些SCI期刊。每当看到这种问题,我都有点纳闷,为什么不去读顶级会议上的论文?


我无意否认以上文献的价值,但是在机器学习、计算机视觉和人工智能领域,顶级会议才是王道。国内教材和CNKI上的基本是N年前老掉牙的东西。有人会质疑这些会议都只是EI。是的,这的确非常特殊:在许多其它领域,会议都是盛会,比如society of neuroscience的会议,每次都有上万人参加,带个abstract和poster就可以去。但在所讨论的几个领域,顶级会议的重要性无论怎么强调都不为过。

可以从以下几点说明:(1)因为机器学习、计算机视觉和人工智能领域发展非常迅速,新的工作层出不穷,如果把论文投到期刊上,一两年后刊出时就有点out了。因此大部分最新的工作都首先发表在顶级会议上,这些顶级会议完全能反映“热门研究方向”、“最新方法”。(2)很多经典工作大家可能引的是某顶级期刊上的论文,这是因为期刊论文表述得比较完整、实验充分。但实际上很多都是在顶级会议上首发。比如PLSA, Latent Dirichlet Allocation等。(3)如果注意这些领域大牛的pulications,不难发现他们很非常看重这些顶级会议,很多人是80%的会议+20%的期刊。即然大牛们把最新工作发在顶级会议上,有什么理由不去读顶级会议?

(1)以下是不完整的列表,但基本覆盖。
机器学习顶级会议:NIPS, ICML, UAI, AISTATS;  (期刊:JMLR, ML, Trends in ML, IEEE T-NN)
计算机视觉和图像识别:ICCV, CVPR, ECCV;  (期刊:IEEE T-PAMI, IJCV, IEEE T-IP)
人工智能:IJCAI, AAAI; (期刊AI)
另外相关的还有SIGRAPH, KDD, ACL, SIGIR, WWW等。
特别是,如果做机器学习,必须地,把近4年的NIPS, ICML翻几遍;如果做计算机视觉,要把近4年的ICCV, CVPR, NIPS, ICML翻几遍。

(2)另外补充一下:大部分顶级会议的论文都能从网上免费下载到,比如CV方面:http://www.cvpapers.com/index.html; NIPS: http://books.nips.cc/;  JMLR(期刊): http://jmlr.csail.mit.edu/papers/;  COLT和ICML(每年度的官网): http://www.cs.mcgill.ca/~colt2009/proceedings.html。希望这些信息对大家有点帮助。

(3)说些自己的感受。我的研究方向主要是统计学习和概率图模型,但对计算机视觉和计算神经科学都有涉及,对Data mining和IR也有些了解。这些领域,从方法和模型的角度看,统计模型(包括probabilistic graphical model和statistical learning theory)是主流也是非常有影响力的方法。有个非常明显的趋势:重要的方法和模型最先在NIPS或ICML出现,然后应用到CV,IR和MM。虽然具体问题和应用也很重要,但多关注和结合这些方法也很有意义。
对于这个领域的牛人们,以上全是浅显的废话,完全可以无视。欢迎讨论。

 

 

 

注:

NIPS = Neural Information Processing Systems  https://nips.cc/

ICML = International Conference on Machine Learning https://icml.cc

UAI(AUAI) =Association for Uncertainty in Artifical Intelligence http://www.auai.org/

AISTATS = Artificial Intelligence and Statistics http://www.aistats.org/

JMLR = Journal of Machine Learning Research http://jmlr.org/

IJCAI = International Joint Conference on Artifical Intelligence http://ijcai.org/

AAAI = Association for the Advancement of Aritifical Intelligence http://www.aaai.org/home.html

 

 

原文地址:

http://emuch.net/html/201012/2659795.html

posted @ 2014-01-02 17:15  ChaoSimple  阅读(26983)  评论(0编辑  收藏  举报