1. 程式人生 > >完整復現何愷明ICCV獲獎論文結果並開源 !(附論文&開原始碼)

完整復現何愷明ICCV獲獎論文結果並開源 !(附論文&開原始碼)

640?wx_fmt=png&wxfrom=5&wx_lazy=1

整理自:AI科技評論、AI科技大本營、圖森未來

本文長度為1434字,建議閱讀3分鐘

本文為你介紹何愷明ICCV 2017兩篇獲獎論文,並附上完整復現論文結果的開原始碼!

ICCV 作為計算機視覺的頂級會議,2017年共收到2143篇論文投稿,比上一屆ICCV2015的1698篇增加了26.2%。共621篇被選為大會論文,錄用比例28.9%;poster、spotlight、oral 比例分別為24.61%、2.61%和2.09%。

組委會根據作者署名統計了不同大學的研究數目,清華大學超過CMU、MIT、ICL、斯坦福以及谷歌名列第一,上海交通大學、北京航空航天大學也在前10當中。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

而此次大會最大的新聞一定是何愷明大神在 ICCV 上拿下了雙best paper!

繼兩次榮獲 CVPR 最佳論文獎之後,何愷明參與的兩篇最新論文又分別摘下 ICCV 2017 的最佳論文獎(Best Paper Award)和最佳學生論文(Best Student Paper Award)兩項大獎。

這兩篇獲獎論文分別是今年 4 月釋出的《Mask R-CNN》以及今年 8 月釋出的《Focal Loss for Dense Object Detection》,兩者都是今年釋出,而且相隔僅僅 4 個月。要知道 ICCV 是計算機視覺領域頂級會議之一,且兩年舉辦一次,而何愷明作為兩篇論文的第一作者和第四作者,足以證明他的實力。

兩篇獲獎論文簡介:

640?wx_fmt=jpeg

suorce:知乎

論文簡介:我們提出了一個簡單、靈活和通用的物件例項分割框架。我們的方法能有效檢測影象中的物件,同時為每個例項生成高質量的 segmentation mask。這種被稱為 Mask R-CNN 的方法通過新增用於預測 object mask 的分支來擴充套件 Faster R-CNN,該分支與用於邊界框識別的現有分支並行。Mask R-CNN 訓練簡單,只需在以 5fps 執行的 Faster R-CNN 之上增加一個較小的 overhead。此外,Mask R-CNN 很容易推廣到其他任務,例如它可以允許同一個框架中進行姿態估計。我們在 COCO 系列挑戰的三個軌道任務中均取得了最佳成果,包括例項分割、邊界物件檢測和人關鍵點檢測。沒有任何 tricks,Mask R-CNN 的表現優於所有現有的單一模型取得的成績,包括 COCO 2016 挑戰賽的冠軍。

論文地址:

https://arxiv.org/abs/1703.06870

640?wx_fmt=jpeg

suorce:知乎

論文簡介:目前準確度最高的目標檢測器採用的是一種常在 R-CNN 中使用的 two-stage 方法,這種方法將分類器應用於一個由候選目標位置組成的稀疏樣本集。相反,one-stage 檢測器則應用於一個由可能目標位置組成的規則密集樣本集,而且更快更簡單,但是準確度卻落後於 two-stage 檢測器。在本文中,我們探討了造成這種現象的原因。

我們發現,在訓練密集目標檢測器的過程中出現的嚴重的 foreground-background 類別失衡,是造成這種現象的主要成因。我們解決這種類別失衡(class imbalance )的方案是,重塑標準交叉熵損失,使其減少分類清晰的樣本的損失的權重。Focal Loss 將訓練集中在一個稀疏的困難樣本集上,並防止大量簡單負樣本在訓練的過程中淹沒檢測器。為了評估該損失的有效性,我們設計並訓練了一個簡單的密集目標檢測器—RetinaNet。試驗結果證明,當使用 Focal Loss訓練時,RetinaNet 不僅能趕上 one-stage 檢測器的檢測速度,而且還在準確度上超越了當前所有最先進的  two-stage 檢測器。

640?wx_fmt=png

我們提出了一種新的損失函式 Focal Loss(焦點損失),這個損失函式在標準的交叉熵標準上添加了一個因子 (1- pt) γ 。設定 γ > 0 可以減小分類清晰的樣本的相對損失(pt > .5),使模型更加集中於困難的錯誤分類的樣本。試驗證明,在存在大量簡單背景樣本(background example)的情況下,我們提出的 Focal Loss 函式可以訓練出準確度很高的密集物件檢測器。

論文地址

https://arxiv.org/abs/1708.02002

大家紛紛表達對愷明大神的崇拜以及對最優秀的學術研究人員表達敬意。與此同時,很多從業者更關心的問題是:什麼時候能看到開原始碼? 

一家AI科技企業——圖森未來表示:致敬大神最好的方式,或許就是完整復現論文結果,然後再開源了。他們完整復現了何愷明大神的論文結果(Mask R-CNN 和 Feature Pyramid Network),並將對應程式碼進行了開源!這也是第一份能夠完整復現何愷明大神論文結果的開原始碼。

後臺回覆關鍵詞“開源”,獲取完整復現何愷明論文中結果的開原始碼,希望能夠給大家的工作帶來幫助!

題外八卦何大神的開掛人生

smiley_60.png

此次ICCV獲兩項論文大獎並不是何愷明大神第一次展現他開掛的能力。

2003 年,何愷明以廣東省理科高考狀元的身份進入清華大學。

2009 年,在 IEEE 舉辦的 CVPR 大會上,還在微軟亞研院(MSRA)實習的何愷明的第一篇論文“Single Image Haze Removal Using Dark Channel Prior”豔驚四座,獲最佳論文,這是第一次完全由中國人組成的團隊獲得該獎項。

2016年,何愷明所在團隊的另一篇論文“Deep Residual Learning for Image Recognition”再獲 CVPR 最佳論文獎。

同年 8 月,何愷明離開 MSRA,加入 FAIR(Facebook AI Research),擔任科學家。

在加入 Facebook 之後,何愷明馬上又成為 Faster R-CNN 和 Mask R-CNN 的主要貢獻者,根本沒有適應期一說。

如今,何愷明又成為 ICCV 的最佳論文得主,再一次拉開與我等普通人的差距,讓人望塵莫及。

然而,這還不是最令人絕望的,看看何愷明的微博,旅遊、玩遊戲......統統沒有落下。所以說,大神終究是大神...

640?wx_fmt=jpeg

小編只能默默跪拜大神...

歡迎大家留言交流一下感想2_05.png

0?wx_fmt=jpeg