1. 程式人生 > >基於深度學習的NLP研究大盤點

基於深度學習的NLP研究大盤點

640?wx_fmt=jpeg

AI深入淺出

公眾號ID:xiumius

關注

640?wx_fmt=gif

在過去的幾年裡,深度學習(DL)架構和演算法在諸如影象識別和語音處理等領域取得了世人矚目的進步。然而在最開始的時候,深度學習在自然語言處理(Natural Language Processing, NLP)領域的效果一般,但是現在已經被證實深度學習在自然語言處理領域依然能夠發揮巨大的作用。並且在一些常見的自然語言處理任務中,基於深度學習的方法已經取得了最佳的結果。神經網路模型在諸如命名實體識別(Named entity recognition, NER)、詞性標註(Part of speech tagging)和情感分析(Sentiment analysis)等任務中的表現已經超越了傳統方法,另外在機器翻譯上的進步也許是最明顯的。


在這篇文章中,我將細數 2017 年裡基於深度學習技術的自然語言處理所取得的一些進步。另外由於實在是存在著太多的相關論文、框架和工具,所以我並不打算進行詳盡的介紹。我只是想和大家分享一下今年產出的我所喜歡的工作,而且我認為 2017 年自然語言處理領域取得的成績斐然。今年深度學習在自然語言處理領域研究中的應用不斷擴大,並且在某些情況下取得了驚人的結果,所有這些跡象都在表明這一應用正方興未艾。

一、從訓練 word2vec 到使用預訓練模型

詞嵌入(Word embeddings)可以說是自然語言處理眾多工中與深度學習相關的且最廣為人知的一項技術。該技術遵循 Harris ( 1954 ) 的分佈假說(Distributional hypothesis),根據這個假說,那些具有相似含義的詞彙通常出現在相似的語境中。關於詞嵌入更詳細的解釋,我建議你去閱讀這篇由 Gabriel Mordecki 所寫的文章。

分佈詞向量樣例:640?wx_fmt=png

諸如 word2vec ( Mikolov et al. , 2013) 和 GloVe ( Pennington et al. , 2014 ) 等演算法已經成為該領域的先驅,雖然它們並不能算作深度學習(word2vec 中的神經網路很淺,而 GloVe 則實現了一個基於計數的方法),但是通過這些方法訓練出來的模型卻在許多的基於深度學習的自然語言處理演算法中被作為輸入資料而使用。總之,在自然語言處理領域使用詞嵌入已經幾乎成了行業準則,並且確實帶來了很好的實踐效果。

一開始,對於一個需要詞嵌入的特定自然語言處理問題,我們傾向於從一個領域相關的大型語料庫中訓練自己的模型。當然,這樣使用詞嵌入還不夠平民化,因此慢慢地便出現了預訓練模型。這些模型經過維基百科、推特、谷歌新聞等資料的訓練,可以讓你輕鬆地將詞嵌入整合到自己深度學習演算法中。

今年證實了預訓練詞嵌入模型仍然是自然語言處理中的一個關鍵問題。比如說,來自 Facebook 人工智慧研究實驗室(Facebook AI Research, FAIR)的 fastText 釋出了支援 294 種語言的預訓練(詞)向量,這對我們的社群而言是一項偉大的工作和貢獻。除了支援大量的語言之外,fastText 還使用了字元 n 元語法(n-grams)作為特徵。這樣使得 fastText 能夠避免出現超出詞彙量(Out of Vocabulary, OOV)的問題,因為即使是一個非常罕見的單詞也可能與一些更為常見的詞彙共享某些字元 n 元語法。從這個意義上來說,fastText 比 word2vec 和 GloVe 表現得更好,而且針對小型資料集而言,fastText 的表現更是超越了它們。

雖然我們確實見證了這個領域所取得的進步,但是我們依然還有許多工作需要去完成。比如說,spaCy 是一個非常偉大的自然語言處理框架,它以原生的方式將詞嵌入和深度學習模型整合到了命名實體識別和依賴分析(Dependency Parsing)等任務中,並且允許使用者更新模型或者使用自定義模型。

依我拙見,將來將會出現許多針對某一特定領域的預訓練模型(比如,生物學、文學、經濟等),這些模型能夠很方便地在自然語言處理框架上進行使用。而在我們的日常使用中,最容易實現也是最錦上添花的功能,可能就是支援對模型的微調(fine-tuning)。同時,適應性詞嵌入(Adapting word embedding)方法也開始出現。

二、調整通用嵌入(Generic embeddings)模型適配特定用例

也許使用預訓練詞嵌入的主要缺點是,訓練資料與真實資料之間的單詞分佈存在差異。假設你只擁有一個較小的語料庫,這個語料庫中儲存了生物論文、食譜或者經濟學論文。不過可能你的語料庫的資料量又不足以訓練出好的詞嵌入,所以這時採用通用詞嵌入反而可能幫助你提高結果。但是如果可以調整通用嵌入模型去適配你的特定用例呢?

這種適配性通常被稱為自然語言處理中的跨域(Cross-domain)或者域適應(Domain adaptation)技術,並且與遷移學習(Transfer learning)非常相似。Yang 等人今年提出了一項非常有趣的工作。他們提出了一個正則化的 skip-gram 模型,該模型能夠在給定源域(Source domain)的嵌入時學習得到目標域(Target domain)的嵌入。

其核心思想簡潔而有效。假設我們已經知道了源域中單詞 w 的詞嵌入 ws。為了計算出目標域的嵌入 wt,作者給 ws 增加了一個傳輸量,而這個傳輸量則是基於兩個域計算得到。基本上,如果這個詞在兩個域中都具有很高的頻率,那就意味著它的語義不依賴於域。在這種情況下,傳輸量將很高,而因此兩個域中產生的嵌入將非常相似。但是由於某一特定域中的詞彙出現頻率總是比其它域要來的高,所以傳輸量會很小。

這個關於詞嵌入的研究課題還沒有被廣泛地探索,所以我認為它在近期將得到更多的關注。

三、不可思議的副作用——情感分析

一如青黴素、X 光甚至是便利貼都是來源於意外的發現。今年 Radford 等人正在探索位元組級別(Byte-level)的迴圈語言模型的特性,其目標是預測亞馬遜評論區中的下一個字元,但是當時他們意外發現訓練模型中的單個神經元對情感價值具有非常高的預測能力。並且這個單一的“情感神經元”能夠以相當準確的方式將評論情緒分類為積極的或者消極的。

640?wx_fmt=png

在注意到這種現象之後,作者決定在斯坦福情感分析資料庫(Stanford Sentiment Treebank)上測試模型,結果發現它的準確性達到 91.8%,而之前的最好的結果是 90.2%。這意味著,他們的模型能夠使用更少的訓練樣例,以無監督方式進行訓練,然後在斯坦福情感分析資料庫這一被廣泛研究的資料集上實現了最高的情感分析準確度。

“情感神經元”

由於模型是在字元級別上進行工作的,所以神經元會針對文字中的每一個字元改變自身的狀態,而看到它的這種行為也是相當令人吃驚的。

640?wx_fmt=jpeg

情感神經元的行為展示,圖片來自於《Unsupervised Sentiment Neuron》

例如,在掃描過積極的單詞之後,神經元的值也變成一個較大的正整數。然後這種效果將隨著掃描到消極單詞之後而逐漸消失,而這種現象也是符合直覺的。

生成極性偏見(Polarity biased)的文字

當然該模型仍然是一個有效的生成模型,所以它能夠被用來生成與亞馬遜評論相類似的文字內容。但是我覺得更棒的一點是,你可以通過簡單地改寫情感神經元的值,來影響所生成文字的極性。

640?wx_fmt=png

生成文字樣例,來自於《Unsupervised Sentiment Neuron》

該樣例所採用的神經網路模型是由 Krause 等人(2016)所提出的乘性 LSTM,這主要是因為他們發現,在他們所探索的超引數配置下乘性 LSTM 比一般的 LSTM 收斂更快。它有 4096 個單元並且使用了一個具有 8200 萬條亞馬遜評論的資料語料庫進行訓練。

至於為什麼訓練有素的模型能夠以如此精確的方式捕捉到情感概念仍然是一個開放性的未解之謎。同時,你可以嘗試訓練自己的模型來進行實驗。當然如果你有許多時間和 GPU 叢集,那麼根據作者所提供的資訊,在四個英偉達 Pascal 圖形處理器(GPU)上訓練這個特定模型需要花費一個月時間。

四、Twitter 上的情感分析

無論是要獲取人們對企業品牌的評價,或是分析營銷活動的影響,亦或是衡量上次美國大選期間全球人們對 Hillary Clinton 和 Donald Trump 的看法,Twitter 上的情感分析都是一個非常強大的工具。

640?wx_fmt=jpeg

 希拉里對上川普:來自 Twitter 的情感分析,圖片來自於《Donald Trump vs Hillary Clinton: sentiment analysis on Twitter mentions》

情感評估(SemEval) 2017

Twitter 上的情感分析已經引起了自然語言處理研究人員的大量關注,而且也引起了政治和社會科學界的關注。這就是為什麼自 2013 年以來,SemEval 每年都會提出一個特定的任務進行比賽。

今年一共有 48 支隊伍參加了評測,為了讓你更好地瞭解 Twitter 推出的 SemEval 究竟是什麼,讓我們來看看今年提出的五項子任務。

子任務 A:給出一條推文,然後判定該推文表達了積極、消極或是中立的情緒。

子任務 B:給出一條推文和一個主題,然後把這個主題所傳達出的情感進行二分類:積極或者消極。

子任務 C:給出一條推文和一個主題,然後把這個主題所傳達出的情感進行五分類:非常積極、積極、中立、消極和非常消極。

子任務 D:給出一組與某個主題相關的推文,評估該組中所有推文在積極和消極兩個情緒中的分佈情況。

子任務 E:給出一組與某個主題相關的推文,評估該組中所有推文在積極和消極五個情緒中的分佈情況,五個情緒分別是:非常積極、積極、中立、消極和非常消極。

如你所見,子任務 A 是最常見的任務,有 38 個團隊參與了這個任務,但是其它的四項子任務則更具挑戰性。主辦方指出,基於深度學習的方法受到越來越多參賽者的歡迎,今年有 20 個團隊採用了卷積神經網路(CNN)和長短時記憶(LSTM)等模型。此外,儘管 SVM 模型仍然非常流行,但是一些參與者選擇將它們與神經網路方法相結合或者是使用詞嵌入特徵。

BB_twtr 系統

今年我發現一個純深度學習系統——BB_twtr 系統(Cliche, 2017)在英語的第五項子任務中排名第一。作者將 10 個 CNN 和 10 個 biLSTM 組合起來,然後採用不同的超引數和不同的預訓練策略進行訓練。你可以從論文中獲得這個網路結構的具體資訊。

為了訓練這些模型,作者使用了人類標記的推文(子任務 A 有 49,693 條資料),並且構建了一個包含 1 億條推文的無標籤資料。作者對每條推文進行了簡單標記,也就是使用諸如“:-)”這樣積極的表情來標記積極情緒的推文,然後使用消極的表情標記消極的推文,通過這種方式作者從包含有 1 億條推文的資料集中抽取出了一個遠端資料集。所有的推文都被轉化為小寫,然後其中的標記、URL和表情符號被替換為特定的標記,並且對重複的字元也進行了統一,例如“niiice”和“niiiiiiiiiice”都變成“niice”。

CNN 和 biLSTM 採用詞嵌入作為輸入,為了獲得該預訓練的詞嵌入,作者在所有未標記資料上使用了 word2vec、GloVe 和 fastText(全部使用預設設定)。然後他使用遠端的資料集來微調詞嵌入模型,以便給模型新增極性資訊,之後他使用人類標記的資料集對模型再次進行微調。

作者使用以前的 SemEval 資料集進行實驗,結果表明使用 GloVe 會降低效能,並且對於所有的標準資料集沒有一個唯一的最佳模型。然後作者通過一個軟投票(Soft voting)策略將所有模型組合起來。由此產生的模型比 2014 年和 2016 年的歷史最佳的成績還更勝一籌,並且與其它年份的結果也非常接近。最終,該模型 SemEval 2017 的第五個子任務中取得了英語語言排名第一的成績。

雖然這種組合不是以一種有機的方式進行的,而是採用一種簡單的軟投票策略,但是該工作表明瞭將不同深度學習模型結合起來的可能性,還以一種近乎端到端的方法(輸入必須經過預處理)證明了在 Twitter 的情感分析中,端到端策略是能夠超越監督方法的。

五、一個令人興奮的摘要生成系統

自動摘要(Automatic summarization)生成和自動翻譯都是自然語言處理領域中最早出現的一類研究問題。自動摘要生成的實現主要有兩類方法:基於抽取(Extraction-based),該方法的摘要是通過從源文字中提取最重要的片段而建立的,而基於抽象(Abstraction-based)的方法則是通過生成文字來構成摘要。歷史中,由於基於抽取的方法比起基於抽象的方法更加簡單,因此基於抽取的方法是最常使用的。

在過去的幾年裡,基於 RNN 模型在文字生成方面取得了驚人的成就。它們對於簡短的輸入和輸出文字表現得非常好,但是對於長文字就顯得差強人意,所生成內容往往顛三倒四和語義不通。在他們的工作中,Paulus 等人提出了一種新穎的神經網路模型來克服這個侷限性。

作者使用 biLSTM 編碼器讀取輸入,並使用 LSTM 解碼器生成輸出。他們的主要貢獻是提出了分別關注輸入和連續生成輸出的一種全新的內部注意力(Intra-attention)策略,以及結合標準監督詞語預測和強化學習的全新的訓練方法。

內部注意力策略

內部注意力策略的目標是避免輸出中出現重複。為了實現這個目標,他們在解碼時使用時間注意力機制來檢視輸入文字的前一片段,然後再決定下一個要生成的詞語。這迫使模型在生成過程中使用了輸入的不同部分。他們還允許模型從解碼器訪問以前的隱藏狀態。然後將這兩個函式組合起來,為輸出摘要選擇最好的下一個單詞。

強化學習

要生成一個摘要,對於不同的人可能會採用不同的詞彙和語序,但是這些摘要卻都可能是有效的。因此,一個好的摘要不一定是儘可能與訓練資料集中的序列相匹配的單詞序列。在理解到這一點之後,作者避開使用標準教師強迫演算法(Standard teacher forcing algorithm),由於該演算法在每個解碼步驟(即對每個生成的單詞)最小化損失,並且它們依賴於那些被證明是極好選擇的強化學習策略。

優異的結果

該模型在 CNN/每日郵報資料集上進行了測試,並且取得了最好的結果。在另一項有人類評估者參與的實驗表明,該模型生成的摘要在可讀性和質量上均有提高。總體來看,這些結果令人印象深刻。另外該模型的預處理包括有:標記輸入文字、採用小寫、數字被替換為“0”並且移除資料集中的一些特定實體。

六、邁向無監督學習機器翻譯的第一步

雙語詞彙歸納法,即用兩種語言的源語和單語語料庫來識別單詞翻譯對,這是一種古老的自然語言處理任務。然後自動生成的雙語詞典有助於其它自然語言處理任務,如資訊檢索和統計機器翻譯。然而,這些方法大部分時間都依賴於某種資源,通常是一個初始的雙語詞典,而這個詞典並不總是可用或者容易建立。

隨著詞嵌入取得成功,業內也開始出現了跨語言詞嵌入的想法,而其目標是對齊嵌入空間而不是詞典。不幸的是,第一種方法也依賴於雙語詞典或平行語料庫。在他們的工作中,Conneau 等人(2018)提出了一個非常有前途的方法,它不依賴於任何特定的資源,並且對於多個語言對的語言翻譯、句子翻譯檢索和跨語言單詞相似性的任務要優於現有技術的監督方法。

作者發明的方法是將輸入的兩組詞嵌入在單語資料上進行獨立訓練,並學習它們之間的對映,使得翻譯在公共空間中相互接近。他們使用 fastText 在維基百科文件上訓練無監督的單詞向量。

首先他們使用對抗學習(Adversarial learning)來學習要執行第一次原始對齊的旋轉矩陣 W。他們根據 Goodfellow 等人(2014)提出的主張,先訓練了一個基礎的對抗神經網路(Generative Adversarial Network, GAN)。如果想要了解 GAN 是如何工作的,我推薦這篇由 Pablo Soto 撰寫的優秀文章。

為了在對抗學習方面對問題進行建模,他們將判別模型(Discriminator)定義為具有判定能力的角色,對於所給定的從 WX 和 Y 隨機取樣的一些元素(參見上圖中的第二列),判別模型將判定每個元素屬於哪種語言。然後他們訓練 W 以避免判別模型做出更好的預測。我認為這種做法非常聰明和優雅,並且最終的結果也相當不錯。

之後,他們還再經過兩個步驟來完善對映關係。一是為了避免對映計算中因為罕見詞彙而引入的噪聲;另一個則是主要通過使用學習到的對映關係與一個距離度量來建立實際的翻譯。

在某些情況下這些結果非常令人印象深刻。例如,對於英語-義大利語單詞翻譯,他們的模型在 [email protected] 的情況下超過了最佳平均精度將近 17%。

作者聲稱,他們的方法可以用作無監督機器翻譯的第一步。如果真是這樣,這將非常棒。同時,讓我們看看這個新的富有前途的方法還能走多遠吧。

七、專門的框架與工具

當前存在著許多的深度學習框架和工具,其中有一些已經被廣泛使用了,比如 TensorFlow、Keras或者 PyTorch。然而,面向特定開源自然語言處理的深度學習框架和工具才剛剛興起。今年總歸行情不錯,因為一些非常有用的框架已經在社群中進行了開源。其中有三個引起了我的特別注意。

AllenNLP

AllenNLP框架是構建在 PyTorch 之上的一個平臺,可以實現在語義自然語言處理任務中輕鬆使用深度學習方法。其目標是讓研究人員設計和評估新模型。它包含了常用的語義自然語言處理任務模型的參考實現,例如語義角色標註、文字蘊涵(Textual entailment)和指代消除(Coreference resolution)。

ParlAI

ParlAI 框架是針對對話研究(Dialog research)而設計的一款開源軟體。它採用 Python 進行實現,其設計目標是為對話模型的共享、訓練和測試提供一個統一的框架。ParlAI 提供了一個與 Amazon Mechanical Turk 輕鬆整合的機制。它還提供了該領域所流行的資料集,並且支援多種模型,包括記憶網路、seq2seq 和 LSTM。

OpenNMT

OpenNMT 工具箱是專門用於序列到序列(Sequence-to-sequence)模型的通用框架。它可以用於執行諸如機器翻譯、摘要生成、影象轉文字和語音識別等任務。

八、其它想法

用於處理自然語言處理的深度學習技術不斷增加這一事實是不可否認的。一個很好的指標就是過去幾年裡在 ACL、EMNLP、EACL 和 NAACL 等關鍵的自然語言處理會議上深度學習論文比例在不斷提升。

然而,真正的端到端學習才剛剛開始出現。我們仍然在處理一些經典的自然語言處理任務來準備資料集,例如清洗、標記或統一某些實體(例如URL、數字、電子郵件地址等)。我們也使用通用嵌入(Generic embeddings),其缺點是不能捕捉到特定領域術語的重要性,而且它們對於多詞語表示式的表現能力不佳,這也是我在工作中經常發現的一個關鍵問題。

九、擴充套件閱讀

如果想要獲取更多今年的基於深度學習自然語言處理研究方法的資訊,我強烈建議你閱讀 Young 等人的優秀論文《Recent Trends in Deep Learning Based Natural Language Processing》(2017)。

另一份有趣的閱讀材料是由 Blunsom 等人(2017)在學術研討會上所做的報告“從字元到理解自然語言(C2NLU):強大的 NLP 端到端深度學習”。出席研討會的人都是自然語言處理領域的研究員。研討會上討論了深度學習和一般機器學習的優勢,同時也探討了使用多個字元而不是特定語言標記(Language-specific tokens)作為深度學習模型輸入所帶來的挑戰。

為了在模型之間進行比較,Yin 等人提出了一個非常有趣的 CNN 和 RNN 的對比研究(2017)。

關於詞嵌入的詳細解釋,我建議你閱讀 Gabriel Mordecki 的這篇文章。他寓教於樂,不僅解釋了詞嵌入的不同方法,而且還介紹了一些關於詞嵌入的神話。

最後,Sebastian Ruder 在 2017 年寫了一篇非常好非常詳細的有關於詞嵌入的文章——《About Word embedding in 2017: Trends and future directions》

原文:http://www.cnaifm.com/ckj/2018-01-01/760.html

640?wx_fmt=png加入Python學習微信交流群

請新增微信:AI_doer

備註:姓名-單位-研究方向

640?wx_fmt=jpeg

業精於勤荒於嬉

640?wx_fmt=png

歡迎轉發到朋友圈或分享給好友

相關推薦

基於深度學習NLP研究盤點

AI深入淺出公眾號ID:xiumius關注在過去的幾年裡,深度學習(DL)架構和演算法在諸如影象

【原創】總結創項目-基於深度學習的智能紅綠燈調控系統

部門 圖像識別 痛苦 支持 軟件 醫療 要求 穩定 車道檢測 一、產品定位分析   (註:以下調研均發生於2017年5月前。)   由於此次項目最初是為了參加Intel舉辦的某屆基於深度學習的創新應用比賽,當時召集了小組成員集思廣益,想一些具有創意的點子作為此次

基於深度學習的影象語義分割技術概述之4常用方法 5.4未來研究方向

https://blog.csdn.net/u014593748/article/details/72794459 本文為論文閱讀筆記,不當之處,敬請指正。 A Review on Deep Learning Techniques Applied to Semantic Segmen

結合深度學習的工業資料應用研究

  摘要:如何將大資料等核心技術與智慧製造結合,進一步提高產能與質量,並且降低成本,是新一代製造業革新的關鍵任務。通過一個具體應用案例,即針對工業中常見的機床刀具消耗冗餘的問題,提出了基於大資料和人工智慧的方法,以準確預測機床刀具的崩刃,從而增加了機床的生產效率,降低了生產成本。相對於

基於深度學習的推薦系統研究綜述》_黃立威——閱讀筆記

一、常用的深度學習模型和方法介紹 1.自編碼器 自編碼器通過一個編碼和一個解碼過程來重構輸入資料,學習資料的隱表示。基本的自編碼器可視為一個三層的神經網路結構.下圖是自編碼器結構示意圖: 自編碼器的目的是使得輸入 x 與輸出 y 儘可能接近,這種接近程度通過重構誤差表示,根據資料的

基於深度學習的文字分類6演算法-原理、結構、論文、原始碼打包分享

    導讀:文字分類是NLP領域一項基礎工作,在工業界擁有大量且豐富的應用場景。傳統的文字分類需要依賴很多詞法、句法相關的human-extracted feature,自2012年深度學習技術快速發展之後,尤其是迴圈神經網路RNN、卷積神經網路CNN在NLP領域逐漸獲得廣

基於深度學習的文字分類方法庫(NLP

注:本文翻譯自GitHub上的一篇介紹,介紹了基於深度學習的文字分類問題。程式碼和部分模型介紹在GitHub上,文末有連結。這個庫的目的是探索用深度學習進行NLP文字分類的方法。它具有文字分類的各種基準模型。它還支援多標籤分類,其中多標籤與句子或文件相關聯。雖然這些模型很多都

李飛飛新研究基於深度學習和視覺化語言來了解不同物體間的關係

來源:鳳凰科技 概要:最近她所在的實驗室正在做一項新研究,基於深度學習和視覺化語言模式瞭解不同物體之間的關係。 2017未來科學大獎頒獎典禮暨未來論壇年會28、29日在京舉辦,斯坦福大學終身教授、谷歌雲首席科學家李飛飛在人工智慧研討會上表示,最近她所在的實驗室正在做一項新研究,基於深度學習和視覺化語言模

基於深度學習的目標檢測研究進展

前言 開始本文內容之前,我們先來看一下上邊左側的這張圖,從圖中你看到了什麼物體?他們在什麼位置?這還不簡單,圖中有一個貓和一個人,具體的位置就是上圖右側影象兩個邊框(bounding-box)所在的位置。其實剛剛的這個過程就是目標檢測,目標檢測就是“給定一張影象或者視訊幀,

基於深度學習的語音識別研究-CTC理論推導(四)

  有時候學習真的得循序漸進,並沒有速成的方法,本小白在經歷了大約一個月終於把CTC的從頭到尾大致看完了,下面講一下我的理解,歡迎各位朋友批評指正。  首先,我們得知道為什麼要引入CTC,前面部落格講到,之前在做語音的聲學模型的時候,我們的資料形式是幀與標籤的分別對齊,以Th

基於深度學習的影象識別演算法研究

作者:豐曉霞 學校:太原理工大學 時間:2015 型別:碩士學位論文 思想 深度學習和支援向量機結合–>構建影象識別的模型 利用卷積限制性玻爾茲曼機–>構建深度網路、改進訓練

論文分析--《基於深度學習的人臉表情識別演算法研究_宋新慧》

1.摘要:文章中提出的演算法:1)針對靜態的影象:細節感知遷移網路      資料集:CK+;Kaggle2)針對視訊序列:利用多工學習的遞迴神經網路      資料集:I-PFE2.本文工作:1)基於細節感知遷移網路的人臉表情識別:傳統特徵提取方法存在的問題:光照、角度等影

基於深度學習的目標檢測及場景文字檢測研究進展

根據本人組會PPT總結整理,複習備用。一.目標檢測與場景文字檢測定義目標檢測:給定一張圖片或者視訊幀,找出其中所有目標的位置,並給出每個目標的具體類別。場景文字檢測:文字檢測(Text Detection):對照片中存在文字的區域進行定位,即找到單詞或者文字行(word/li

【論文筆記】《基於深度學習的中文命名實體識別研究》閱讀筆記

作者及其單位:北京郵電大學,張俊遙,2019年6月,碩士論文 摘要 實驗資料:來源於網路公開的新聞文字資料;用隨機欠取樣和過取樣的方法解決分類不均衡問題;使用BIO格式的標籤識別5類命名實體,標註11種標籤。 學習模型:基於RNN-CRF框架,提出Bi-GRU-Attention模型;基於改進的ELMo可

基於深度學習的圖像語義分割技術概述之5.1度量標準

-s 公平性 的確 由於 表示 n-2 sub 包含 提升 本文為論文閱讀筆記,不當之處,敬請指正。 A Review on Deep Learning Techniques Applied to Semantic Segmentation:原文鏈接 5.1度量標準 為何需

基於深度學習的病毒檢測技術無需沙箱環境,直接將樣本文件轉換為二維圖片,進而應用改造後的卷積神經網絡 Inception V4 進行訓練和檢測

進制 思科 開發 主題 需求 做的 病毒 無法 大於 話題 3: 基於深度學習的二進制惡意樣本檢測 分享主題:全球正在經歷一場由科技驅動的數字化轉型,傳統技術已經不能適應病毒數量飛速增長的發展態勢。而基於沙箱的檢測方案無法滿足 APT 攻擊的檢測需求,也受到多種反沙箱技術的

【OCR技術系列之四】基於深度學習的文字識別(3755個漢字)

架構 indices 編碼 協調器 論文 準備 分享 深度 ast 上一篇提到文字數據集的合成,現在我們手頭上已經得到了3755個漢字(一級字庫)的印刷體圖像數據集,我們可以利用它們進行接下來的3755個漢字的識別系統的搭建。用深度學習做文字識別,用的網絡當然是CNN,那具

基於深度學習生成音樂

cto ont -name 編碼 mp3文件 script 取值 style bsp 之前在看Andrew Ng 的deep learning 視頻教程,在RNN 這一節的課後作業裏,實現了一個基於deepjazz的music generator,實驗之後發現產生的結

基於深度學習做命名實體識別

note 深度學習 以及 效果 數據集 pre 之前 得到 高達 基於CRF做命名實體識別系列 用CRF做命名實體識別(一) 用CRF做命名實體識別(二) 用CRF做命名實體識別(三) 摘要 1. 之前用CRF做了命名實體識別,效果還可以,最高達到0.9293,當然這是自己

基於深度學習智能問答筆記

align 背景 問題 方法 範圍 神經網絡 根據 驗證 實體 基於深度學習智能問答筆記 自動問答系統的兩個主要難題是:1.問句的真實意圖分析。2.問句與答案之間的匹配關系判別。 問答系統可分為面向限定域的問答系統,面向開放域的問答系統,面向常用問題集(