1. 程式人生 > >轉:為什麼不去讀頂級會議上的論文?適應於機器學習、計算機視覺和人工智慧

轉:為什麼不去讀頂級會議上的論文?適應於機器學習、計算機視覺和人工智慧

  • 看了版上很多貼子,發現很多版友都在問“熱門研究方向”、“最新方法”等。有同學建議國內某教授的教材、或者CNKI、或者某些SCI期刊。每當看到這種問題,我都有點納悶,為什麼不去讀頂級會議上的論文?

我無意否認以上文獻的價值,但是在機器學習、計算機視覺和人工智慧領域,頂級會議才是王道。國內教材和CNKI上的基本是N年前老掉牙的東西。有人會質疑這些會議都只是EI。是的,這的確非常特殊:在許多其它領域,會議都是盛會,比如society of neuroscience的會議,每次都有上萬人蔘加,帶個abstract和poster就可以去。但在所討論的幾個領域,頂級會議的重要性無論怎麼強調都不為過。
可以從以下幾點說明:
(1)因為機器學習、計算機視覺和人工智慧領域發展非常迅速,新的工作層出不窮,如果把論文投到期刊上,一兩年後刊出時就有點out了。因此大部分最新的工作都首先發表在頂級會議上,這些頂級會議完全能反映“熱門研究方向”、“最新方法”。
(2)很多經典工作大家可能引的是某頂級期刊上的論文,這是因為期刊論文表述得比較完整、實驗充分。但實際上很多都是在頂級會議上首發。比如PLSA, Latent Dirichlet Allocation等。
(3)如果注意這些領域大牛的pulications,不難發現他們很非常看重這些頂級會議,很多人是80%的會議+20%的期刊。即然大牛們把最新工作發在頂級會議上,有什麼理由不去讀頂級會議?

以下是不完整的列表,但基本覆蓋。
機器學習頂級會議:看了版上很多貼子,發現很多版友都在問“熱門研究方向”、“最新方法”等。有同學建議國內某教授的教材、或者CNKI、或者某些SCI期刊。每當看到這種問題,我都有點納悶,為什麼不去讀頂級會議上的論文?
我無意否認以上文獻的價值,但是在機器學習、計算機視覺和人工智慧領域,頂級會議才是王道。國內教材和CNKI上的基本是N年前老掉牙的東西。有人會質疑這些會議都只是EI。是的,這的確非常特殊:在許多其它領域,會議都是盛會,比如society of neuroscience的會議,每次都有上萬人蔘加,帶個abstract和poster就可以去。但在所討論的幾個領域,頂級會議的重要性無論怎麼強調都不為過。
可以從以下幾點說明:
(1)因為機器學習、計算機視覺和人工智慧領域發展非常迅速,新的工作層出不窮,如果把論文投到期刊上,一兩年後刊出時就有點out了。因此大部分最新的工作都首先發表在頂級會議上,這些頂級會議完全能反映“熱門研究方向”、“最新方法”。
(2)很多經典工作大家可能引的是某頂級期刊上的論文,這是因為期刊論文表述得比較完整、實驗充分。但實際上很多都是在頂級會議上首發。比如PLSA, Latent Dirichlet Allocation等。
(3)如果注意這些領域大牛的pulications,不難發現他們很非常看重這些頂級會議,很多人是80%的會議+20%的期刊。即然大牛們把最新工作發在頂級會議上,有什麼理由不去讀頂級會議?

(1)以下是不完整的列表,但基本覆蓋。

機器學習頂級會議:NIPS, ICML, UAI, AISTATS; (期刊:JMLR, ML, Trends in ML, IEEE T-NN)

計算機視覺和影象識別:ICCV, CVPR, ECCV; (期刊:IEEE T-PAMI, IJCV, IEEE T-IP)

人工智慧:IJCAI, AAAI; (期刊AI)

另外相關的還有SIGRAPH, KDD, ACL, SIGIR, WWW等。

特別是,如果做機器學習,必須地,把近4年的NIPS, ICML翻幾遍;如果做計算機視覺,要把近4年的ICCV, CVPR, NIPS, ICML翻幾遍。

(2)另外補充一下:大部分頂級會議的論文都能從網上免費下載到,比如CV方面:http://www.cvpapers.com/index.html;
NIPS: http://books.nips.cc/;
JMLR(期刊): http://jmlr.csail.mit.edu/papers/;
COLT和ICML(每年度的官網): http://www.cs.mcgill.ca/~colt2009/proceedings.html。
希望這些資訊對大家有點幫助。

(3)說些自己的感受。我的研究方向主要是統計學習和概率圖模型,但對計算機視覺和計算神經科學都有涉及,對Data mining和IR也有些瞭解。這些領域,從方法和模型的角度看,統計模型(包括probabilistic graphical model和statistical learning theory)是主流也是非常有影響力的方法。有個非常明顯的趨勢:重要的方法和模型最先在NIPS或ICML出現,然後應用到CV,IR和MM。雖然具體問題和應用也很重要,但多關注和結合這些方法也很有意義。

對於這個領域的牛人們,以上全是淺顯的廢話,完全可以無視。歡迎討論。
注:
NIPS = Neural Information Processing Systems

https://nips.cc/

ICML = International Conference on Machine Learning

https://icml.cc

UAI(AUAI) =Association for Uncertainty in Artifical Intelligence
http://www.auai.org/

AISTATS = Artificial Intelligence and Statistics

http://www.aistats.org/

JMLR = Journal of Machine Learning Research
http://jmlr.org/

IJCAI =International Joint Conference on Artifical Intelligence
http://ijcai.org/

AAAI = Association for the Advancement of Aritifical Intelligence
http://www.aaai.org/home.html

原文地址:http://emuch.net/html/201012/2659795.html