在计算机视觉与人工智能领域,顶级会议比SCI更重要(内容转)

很多领域,SCI是王道,尤其在中国,在教师科研职称评审和学生毕业条件中都对SCI极为重视,而会议则充当了补充者的身份。但是在计算机领域,尤其是人工智能机器学习领域里,往往研究者们更加青睐于会议

    我无意否认SCI期刊的价值,但是在机器学习、计算机视觉和人工智能领域,顶级会议才是王道。有人会质疑这些会议都只是EI索引的。是的,这的确非常特殊:在许多其它领域,会议都是盛会,比如society of neuroscience的会议,每次都有上万人参加,带个abstract和poster就可以去。但在所讨论的几个领域,顶级会议的重要性无论怎么强调都不为过。 

    可以从以下几点说明:(1)因为机器学习、计算机视觉和人工智能领域发展非常迅速,新的工作层出不穷,如果把论文投到期刊上,一两年后刊出时就有点out了。因此大部分最新的工作都首先发表在顶级会议上,这些顶级会议完全能反映“热门研究方向”、“最新方法”。(2)很多经典工作大家可能引的是某顶级期刊上的论文,这是因为期刊论文表述得比较完整、实验充分。但实际上很多都是在顶级会议上首发。比如PLSA, Latent Dirichlet Allocation等。(3)如果注意这些领域大牛的pulications,不难发现他们很非常看重这些顶级会议,很多人是80%的会议+20%的期刊。即然大牛们把最新工作发在顶级会议上,有什么理由不去读顶级会议? 

(1)以下是不完整的列表,但基本覆盖。 

机器学习顶级会议:NIPS, ICML, UAI, AISTATS;  (期刊:JMLR, ML, Trends in ML, IEEE T-NN) 

计算机视觉和图像识别:ICCV, CVPR, ECCV;  (期刊:IEEE T-PAMI, IJCV, IEEE T-IP) 

人工智能:IJCAI, AAAI; (期刊AI) 

另外相关的还有SIGRAPH, KDD, ACL, SIGIR, WWW等。 

特别是,如果做机器学习,必须地,把近4年的NIPS, ICML翻几遍;如果做计算机视觉,要把近4年的ICCV, CVPR, NIPS, ICML翻几遍。 

(2)另外补充一下:大部分顶级会议的论文都能从网上免费下载到,如CV方面:http://www.cvpapers.com/index.html; NIPS: http://books.nips.cc/;  JMLR(期刊): http://jmlr.csail.mit.edu/papers/;  COLT和ICML(每年度的官网): http://www.cs.mcgill.ca/~colt2009/proceedings.html。希望这些信息对大家有点帮助。

(3)说些自己的感受。我的研究方向主要是CV与Deep Learning,但统计学习和计算神经科学都有涉及,对Data mining和Natural Language Processing也有一定了解。这些领域,从方法和模型的角度看,统计模型(包括probabilistic graphical model和statistical learning theory)是主流也是非常有影响力的方法。有个非常明显的趋势:重要的方法和模型最先在NIPS或ICML出现,然后应用到CV,DM.NLP。虽然具体问题和应用也很重要,但多关注和结合这些方法也很有意义。 

对于这个领域的牛人们,以上全是浅显的废话,完全可以无视。欢迎讨论。

 

注:

NIPS = Neural Information Processing Systems  https://nips.cc/

ICML = International Conference on Machine Learning https://icml.cc

UAI(AUAI) =Association for Uncertainty in Artifical Intelligence http://www.auai.org/

AISTATS = Artificial Intelligence and Statistics http://www.aistats.org/

JMLR = Journal of Machine Learning Research http://jmlr.org/

IJCAI = International Joint Conference on Artifical Intelligence http://ijcai.org/

AAAI = Association for the Advancement of Aritifical Intelligence http://www.aaai.org/home.html

 

 

原文地址:

http://emuch.net/html/201012/2659795.html

 
posted on 2017-03-19 10:12  Hanson-jun  阅读(4587)  评论(0编辑  收藏  举报