深度學習在自然語言處理中的應用(一)
資料整理篇
經典教材 Speech and Language Processing
(第1,2版內容略陳舊,第三版很入時, 但有些重要章節沒放在網上)
https://web.stanford.edu/~jurafsky/slp3/
課程 Stanford CS224d: Deep Learning for Natural Language Processing
http://cs224d.stanford.edu/syllabus.html
會議論文:
ACL 2015:
http://acl2015.org/accepted_papers.html
ACL 2016:
http://acl2016.org/index.php?article_id=13#long_papers
EMNLP 2015:
http://www.emnlp2015.org/accepted-papers.html
論文很多,結合引用數選看
詞嵌入代表論文:
最經典:
A neural probabilistic language model, Bengio et al. JMLR 2003
word2vec:
Distributed representations of words and phrases and their compositionality. NIPS 2013
Efficient estimation of word representations in vector space. ICLR 2013
矩陣分解:
Neural word embeddings as implicit matrix factorization. NIPS 2014
Glove: Global vectors for word representation. EMNLP 2014
綜合:
Linguistic regularities in sparse and explicit word representations. CoNLL-2014
Improving distributional similarity with lessons learned from word embeddings. TACL 2015
相關推薦
[深度學習]自然語言處理資料集合
部落格 Sebastian Ruder About I'm a final year PhD Student in Natural Language Processing and Deep Learning at the Insight Research Centre for
深度學習 自然語言處理 資料推薦
本次首先推薦邱錫鵬老師的兩個報告: 1. Deep learning for natural language processing http://nlp.fudan.edu.cn/xpqiu/slides/[email protected] 主要討論
跳躍NLP曲線:自然語言處理研究綜述(三)(翻譯)
3. 重疊NLP曲線 隨著網際網路時代的到來,文明經歷了深刻的影響,我們現在比以往任何時候都經歷的快很多。即使是適應、發展和創新技術,也會讓人感到恍惚,即淘汰就在眼前。特別是NLP研究在過去15年中並沒有像其它技術那樣發展。 雖然NLP研究在執行人工智慧行為
跳躍NLP曲線:自然語言處理研究綜述(五)(翻譯)
6. 展望語義曲線 敘事理解和生成是推理,決策和“意識形成”的核心。除了作為人與人交流的關鍵部分之外,敘事也是構建現實和進行規劃的手段。解讀人類大腦如何生成和處理敘事可能最終導致我們真正理解和解釋人類的智慧和意識。計算機建模是研究敘事理解的有效方法。在知識表達
自然語言處理期末複習(3)-(5)模型與句法分析
第三部分 隱馬爾科夫模型與詞類標註1.定義:如果給定一個觀察序列(不同顏色的小球序列),不能直接確定狀態轉換序列(罈子的序列),因為狀態轉移過程被隱藏起來了。所以這類隨機過程被稱為隱馬爾科夫過程。2.詞類標註的方法:(1)基於規則的詞類標註:查字典,給詞標記所有可能,逐步刪除
python自然語言處理 第二章(上)
古騰堡語料庫 import nltk nltk.corpus.gutenberg.fileids() Out[78]: [u'austen-emma.txt', u'austen-persuasion.txt', u'austen-sense.txt', u'bib
基於深度學習的目標檢測演算法綜述(一)(截止20180821)
參考:https://zhuanlan.zhihu.com/p/40047760 目標檢測(Object Detection)是計算機視覺領域的基本任務之一,學術界已有將近二十年的研究歷史。近些年隨著深度學習技術的火熱發展,目標檢測演算法也從基於手工特徵的傳統演算法轉向了基於深度神經網路的檢測技
對深度學習上的超解析度認知(一)
從本質上對深度學習和超解析度進行梳理 溫故而知新 超解析度 作為處理影象的其中一個問題,和它同一個層次的還有降噪(Denoising),抗模糊(Deblurring),缺失修復(Inpainting)。難度(相對的)也是依次遞增的。傳統觀念上講,他們每一個的處理方式都有各自專門的
基於深度學習的目標檢測演算法綜述(一)
前言 目標檢測(Object Detection)是計算機視覺領域的基本任務之一,學術界已有將近二十年的研究歷史。近些年隨著深度學習技術的火熱發展,目標檢測演算法也從基於手工特徵的傳統演算法轉向了基於深度神經網路的檢測技術。從最初2013年提出的R-CNN、OverFeat
三維深度學習之pointnet系列詳解(一)
三維深度學習之pointnet系列詳解(一) 置頂 2018年05月09日 23:25:06 痛並快樂著呦西 閱讀數:4429 標籤: pointnet 三維深度學習 更多 個人分類: 3D Deep Learning
.NET深度學習框架ML.NET入門筆記(一)
ML.NET入門筆記 ML.NET機器學習框架是基於.NET core 2.x的,所以我們必須安裝.net core 2.x,然後順便安裝vs2017便於開發 1.建立專案 此例我們建立一個控制檯應用myApp,建立之後使用Nuget安裝 Mi
深度學習—加快梯度下降收斂速度(一):mini-batch、Stochastic gradient descent
在深層神經網路那篇部落格中講了,深層神經網路的區域性最優解問題,深層神經網路中存在區域性極小點的可能性比較小,大部分是鞍點。因為鞍面上的梯度接近於0,在鞍面上行走是非常緩慢的。因此,必須想辦法加速收斂速度,使其更快找到全域性最優解。本文將介紹mini-batch
Redis在三層服務框架中應用(一)——Redis與Model的結合
個人宣告:本系列所有文章旨在拋磚引玉,為有興趣深入使用Redis的同學提供一些參考。本系列所有文章純屬原創,均是筆者在實際工作中的總結。本文所有引用的MDB系列元件均由米多網路架構部提供,在此向架構部表示感謝。筆者經驗能力有限,如有不適之處還請多多指教。一、為什麼要使用Red
【深度學習】Inception的前世今生(一)--GoogLeNet
在2014年ILSVRC比賽上,GoogleNet 用了僅僅是AlexNet的12%的引數量,卻拿到了分類top-5的第一名。在之前的深度學習網路的設計中,會存在兩個重要缺陷: 1) 更深更寬的網路模型會產生巨量引數 2) 網路規模的加大會極大的增加計算
深度學習在自然語言處理中的應用(一)
資料整理篇 經典教材 Speech and Language Processing (第1,2版內容略陳舊,第三版很入時, 但有些重要章節沒放在網上) https://web.stanford.edu
機器學習、深度學習、計算機視覺、自然語言處理及應用案例——乾貨分享(持續更新......)
機器學習、深度學習、計算機視覺、自然語言處理及應用案例——乾貨分享(持續更新……) GitChat提問碼: 1、機器學習/深度學習 1.1 對抗生成網路GAN 【2017.04.21】 對抗生成網路GAN變種大集合
深度學習在自然語言處理中的應用綜述
由於人工神經網路可以對非線性過程進行建模,因此已經成為解決諸如分類,聚類,迴歸,模式識別,維度簡化,結構化預測,機器翻譯,異常檢測,決策視覺化,計算機視覺和其他許多問題的利器。這種廣泛的能力使得人工神經網路可以應用於許多領域。在本文中,我們討論了人工神經網路在自然語言處
自然語言處理中傳統詞向量表示VS深度學習語言模型(三):word2vec詞向量
在前面的部落格中,我們已經梳理過語言表示和語言模型,之所以將這兩部分內容進行梳理,主要是因為分散式的詞向量語言表示方式和使用神經網路語言模型來得到詞向量這兩部分,構成了後來的word2vec的發展,可以說是word2vec的基礎。1.什麼是詞向量
深度學習在自然語言處理中的應用: 集智俱樂部活動筆記
自然語言處理(Natural Language Processing, NLP)是人工智慧中的一個重要分支,從人工智慧這個領域剛發展起來的時候就一直是一個重要的研究方向,到現在也發展出了很多的細分領域和非常多的方法,大致上來說,我們可以認為是在 2013 年的時候,伴隨著 word2vec 這個 word
機器學習、深度學習、計算機視覺、自然語言處理及應用案例——乾貨分享(持續更新……)
人臉檢測與識別的趨勢和分析 【paper】【GitHub】【全域性/區域性一致影象補全】《Globally and Locally Consistent Image Completion》S Iizuka, E Simo-Serra, H Ishikawa (2017) 【paper】【GitHub】【基