可應用於實際的14個NLP突破性研究成果(四)
摘要: 最好的論文是可以直接走出實驗室!NLP年度最佳應用論文大集錦!
可應用於實際的14個NLP突破性研究成果(一)
可應用於實際的14個NLP突破性研究成果(二)
可應用於實際的14個NLP突破性研究成果(三)
11. 對序列建模的通用卷積和遞迴網路的實證評估 作者:SHAOJIE BAI,J。ZICO KOLTER,VLADLEN KOLTUN
論文摘要
對於大多數深度學習實踐者來說,序列建模與迴圈網路是同義詞。然而,最近的研究結果表明,卷積架構在語音合成和機器翻譯等任務上的表現優於迴圈網路。給定一個新的序列建模任務或資料集,應該使用哪種架構?我們對序列建模的一般卷積和迴圈架構進行了系統的評價。我們在廣泛的標準任務中評估這些模型。我們的結果表明,一個簡單的卷積架構在不同的任務和資料集上的表現優於LSTM等典型的迴圈網路。我們的結論是,需要重新考慮序列建模和迴圈網路之間的共同關聯,卷積網路應該被視為序列建模任務的一個自然起點我們提供了相關程式碼: http:// github.com/locuslab/TCN 。
總結
本文的作者質疑了一個常見假設,即迴圈架構應該是序列建模任務的預設起點。他們的結果表明, 時間卷積網路(TCN) 在多個序列建模任務中明顯優於長短期記憶網路(LSTMs)和門控迴圈單元網路等典型的迴圈架構。
論文的核心思想是什麼?
1、時間卷積網路(TCN)是基於最近提出的最佳實踐(如擴張卷積和殘差連線)設計的,它在一系列複雜的序列建模任務中表現得明顯優於通用的迴圈架構。
2、TCN表現出比迴圈架構更長的記憶,因此更適合需要較長的歷史記錄的任務。
關鍵成就是什麼?
- 在序列建模任務上提供了卷積架構和迴圈體系結構系統的比較。
- 設計了卷積體系結構,它可以作為序列建模任務的方便且強大的起點。
AI社群的對其評價?
在使用RNN之前,一定要先從CNN開始。
未來的研究領域是什麼?
為了提高TCN在不同序列建模任務中的效能,需要進一步精化架構和演算法。
可能應用的商業領域?
- 引入TCN可以提高依賴於迴圈架構進行序列建模的AI系統的效能。其中包括以下任務:
§機器翻譯;
§語音識別;
§音樂和語音生成。
你在哪裡可以得到程式碼?
1、如論文摘要所述,研究人員 通過GitHub儲存庫 提供了 官方程式碼 。
2、你還可以檢視PhilippeRémy提供的 Keras實施的TCN 。
12.用於 文字分類的通用語言模型微調 -ULMFiT 作者: JEREMY HOWARD和SEBASTIAN RUDER
論文摘要
遷移學習在計算機視覺方面取得了很多成功,但是同樣的方法應用在NLP領域卻行不通。所以我們提出了通用語言模型微調(ULMFiT),這是一種有效的轉移學習方法,可以應用於NLP中的任何任務。該方法在6個文字分類任務上的效能明顯優於現有的文字分類方法,在大部分的資料集上測試使得錯誤率降低了18-24%。此外,僅有100個標記樣本訓練的結果也相當不錯。我們已經開源我們的預訓練模型和程式碼。
總結
Howard和Ruder建議使用預先訓練的模型來解決各種NLP問題。使用這種方法的好處是你無需從頭開始訓練模型,只需對原始模型進行微調。通用語言模型微調(ULMFiT)的方法優於最先進的結果,它將誤差降低了18-24%。更重要的是,ULMFiT可以只使用100個標記示例,就能與10K標記示例中從頭開始訓練的模型的效能相匹配。
論文的核心思想是什麼?
- 為了解決缺乏標記資料的難題,研究人員建議將轉移學習應用於NLP問題。因此,你可以使用另一個經過訓練的模型來解決類似問題作為基礎,然後微調原始模型以解決你的特定問題,而不是從頭開始訓練模型。
- 但是,這種微調應該考慮到幾個重要的考慮因素:
§不同的層應該進行不同程度地微調,因為它們捕獲不同型別的資訊。
§如果學習速率首先線性增加然後線性衰減,則將模型的引數調整為任務特定的特徵將更有效。
§微調所有層可能會導致災難性的遺忘;因此,從最後一層開始逐漸微調模型可能會更好。
關鍵成就是什麼?
- 顯著優於最先進的技術:將誤差降低18-24%;
- 所需的標記資料要少得多,但效能可以保障。
AI社群對其的看法是什麼?
- 預先訓練的ImageNet模型的可用性已經改變了計算機視覺領域,ULMFiT對於NLP問題可能具有相同的重要性。
- 此方法可以應用於任何語言的任何NLP任務。
未來的研究領域的方向是什麼?
- 改進語言模型預訓練和微調。
- 將這種新方法應用於新的任務和模型(例如,序列標記、自然語言生成、蘊涵或問答)。
可能應用的商業領域?
- ULMFiT可以更有效地解決各種NLP問題,包括:
§識別垃圾郵件、機器人、攻擊性評論;
§按特定功能對文章進行分組;
§對正面和負面評論進行分類;
§查詢相關檔案等
你在哪裡可以得到實現程式碼?
Fast.ai提供ULMFiT的 官方實施,用於文字分類,並作為fast.ai庫的一部分 。
13. 用非監督學習來提升語言理解 ,作者:ALEC RADFORD,KARTHIK NARASIMHAN,TIM SALIMANS,ILYA SUTSKEVER
論文摘要
自然語言理解包括各種各樣的任務,例如文字蘊涵、問答、語義相似性評估和文件分類。雖然大量未標記的文字語料庫很豐富,但用於學習這些特定任務的標記資料很少。我們證明,通過對多種未標記文字語料庫中的語言模型進行生成預訓練,然後對每項特定任務進行辨別性微調,可以實現這些任務的巨大收益。與以前的方法相比,我們在微調期間利用任務感知輸入轉換來實現有效傳輸,同時對模型架構進行最少的更改。我們證明了我們的方法在廣泛的自然語言理解基準上的有效性。例如,我們在常識推理(Stories Cloze Test)上獲得8.9%的效能改善,在問答(RACE)上達到5.7%,在文字蘊涵(MultiNLI)上達到1.5%。
總結
OpenAI團隊建議通過在多種未標記文字語料庫中預先訓練語言模型,然後使用標記資料集對每個特定任務的模型進行微調,從而可以顯著改善了語言理解。他們還表明,使用Transformer模型而不是傳統的遞迴神經網路可以顯著提高模型的效能,這種方法在所研究的12項任務中有9項的表現優於之前的最佳結果。

論文的核心思想是什麼?
- 通過在未標記資料上學習神經網路模型的初始引數,然後使用標記資料使這些引數適應特定任務,結合使用無監督預訓練和監督微調。
- 通過使用遍歷樣式方法避免跨任務對模型體系結構進行大量更改:
§預訓練模型是在連續的文字序列上訓練的,但是問題回答或文字蘊涵等任務具有結構化輸入。
§解決方案是將結構化輸入轉換為預先訓練的模型可以處理的有序序列。
- 使用Transformer模型而不是LSTM,因為這些模型提供了更加結構化的記憶體,用於處理文字中的長期依賴關係。
取得了什麼關鍵成就?
- 對於自然語言推理(NLI)的任務,通過在SciTail上獲得5%的效能改進和在QNLI上獲得5.8%的效能改進。
- 對於QA和常識推理的任務,表現優於以前的最佳結果-在Story Cloze上高達8.9%,在RACE上高達5.7%。
- 通過在QQP上實現4.2%的效能改善,重新整理了3個語義相似性任務中的2個的最新結果。
- 對於分類任務,獲得CoLA的45.4分,而之前的最佳結果僅為35分。
AI社群對其看法是什麼?
- 該論文通過使用基於Transformer模型而非LSTM擴充套件了ULMFiT研究,並將該方法應用於更廣泛的任務。
- “這正是我們希望我們的ULMFiT工作能夠發揮作用的地方!”Jeremy Howard,fast.ai的創始人。
未來的研究領域是什麼?
進一步研究自然語言理解和其他領域的無監督學習,以便更好地理解無監督學習的時間和方式。
可能應用的商業領域?
OpenAI團隊的方法通過無監督學習增強了自然語言理解,因此可以幫助標記資料集稀疏或不可靠的NLP應用。
在哪裡可以得到實現程式碼?
Open AI團隊在 GitHub上的 公開了程式碼和模型。
14. 語境化詞向量解析:架構和表示 ,作者:MATTHEW E. PETERS,MARK NEUMANN,LUKE ZETTLEMOYER,WEN-TAU YIH
論文摘要
最近研究顯示從預訓練的雙向語言模型(biLM)匯出的上下文詞表示為廣泛的NLP任務提供了對現有技術的改進。然而,關於這些模型如何以及為何如此有效的問題,仍然存在許多問題。在本文中,我們提出了一個詳細的實證研究,探討神經結構的選擇(例如LSTM,CNN)如何影響最終任務的準確性和所學習的表徵的定性屬性。我們展示瞭如何在速度和準確性之間的權衡,但所有體系結構都學習了高質量的上下文表示,這些表示優於四個具有挑戰性的NLP任務的字嵌入。此外,所有架構都學習隨網路深度而變化的表示,從基於詞嵌入層的專有形態學到基於較低上下文層的區域性語法到較高範圍的語義。總之,這些結果表明,無人監督的biLM正在學習更多關於語言結構的知識。
總結
今年早些時候艾倫人工智慧研究所的團隊介紹了ELMo嵌入,旨在更好地理解預訓練的語言模型表示。為此,他們精心設計了無監督和監督任務上廣泛研究學習的單詞和跨度表示。研究結果表明,獨立於體系結構的學習表示隨網路深度而變化。
論文的核心思想是什麼?
- 預訓練的語言模型大大提高了許多NLP任務的效能,將錯誤率降低了10-25%。但是,仍然沒有清楚地瞭解為什麼以及如何在實踐中進行預訓練。
- 為了更好地理解預訓練的語言模型表示,研究人員憑經驗研究神經結構的選擇如何影響:
§直接終端任務準確性;
§學習表示的定性屬性,即語境化詞表示如何編碼語法和語義的概念。
什麼是關鍵成就?
- 確認在速度和準確度之間存在權衡,在評估的三種架構中-LSTM,Transformer和Gated CNN:
§LSTM獲得最高的準確度,但也是最慢的;
§基於Transformer和CNN的模型比基於LSTM的模型快3倍,但也不太準確。
- 證明由預先訓練的雙向語言模型(biLM)捕獲的資訊隨網路深度而變化:
§深度biLM的詞嵌入層專注於詞形態,與傳統的詞向量形成對比,傳統的詞向量在該層也編碼一些語義資訊;
§biLM的最低上下文層只關注本地語法;
- 證明了biLM啟用可用於形成對語法任務有用的短語表示。
AI社群對其看法是什麼?
- 該論文在EMNLP 2018上發表。
- “對我來說,這確實證明了預訓練的語言模型確實捕獲了與在ImageNet上預訓練的計算機視覺模型相似的屬性。”AYLIEN的研究科學家Sebastian Ruder。
未來的研究領域是什麼?
- 使用明確的句法結構或其他語言驅動的歸納偏見來增強模型。
- 將純無監督的biLM訓練目標與現有的註釋資源以多工或半監督方式相結合。
可能應用的商業領域?
1、通過更好地理解預訓練語言模型表示所捕獲的資訊,研究人員可以構建更復雜的模型,並增強在業務環境中應用的NLP系統的效能。
以上為譯文,由 阿里云云棲社群 組織翻譯。
文章原標題《WE SUMMARIZED 14 NLP RESEARCH BREAKTHROUGHS YOU CAN APPLY TO YOUR BUSINESS》作者:Mariya Yao
譯者:虎說八道,審校:袁虎。
文章為簡譯,更為詳細的內容,請檢視 原文
更多技術乾貨敬請關注雲棲社群知乎機構號: 阿里云云棲社群 - 知乎
本文為雲棲社群原創內容,未經允許不得轉載。