牛津大學xDeepMind 自然語言處理
牛津大學xDeepMind 自然語言處理
連結: https://study.163.com/course/courseMain.htm?courseId=1004336028
後記
歡迎大家加入“深度學習交流群”,群內會經常分享一些深度學習相關的資料。
相關推薦
牛津大學xDeepMind 自然語言處理
牛津大學xDeepMind 自然語言處理 連結: https://study.163.com/course/courseMain.htm?courseId=1004336028 後記
深度學習視訊,吳恩達,CS231n,斯坦福,計算機視覺,牛津大學,xDeepMind ,自然語言處理,莫煩,Tensorflow
1. 吳恩達 最新深度學習視訊 網易雲課堂 http://mooc.study.163.com/smartSpec/detail/1001319001.htm 《深度學習筆記v5.32》 pdf下載 連結:https://pan.baidu.com/s/1m8c7OdCJJZ2
斯坦福大學-自然語言處理與深度學習(CS224n) 筆記 第三課 詞向量(2)
一、word2vec 1、回顧:skip-grams word2vec的主要步驟是遍歷整個語料庫,利用每個視窗的中心詞來預測上下文的單詞,然後對每個這樣的視窗利用SGD來進行引數的更新。 對於每一個視窗而言,我們只有2m+1個單詞(其中m表示視窗的半徑),因此我們計算出來的梯度向量是
斯坦福大學-自然語言處理與深度學習(CS224n) 筆記 第二課 詞向量(word vector)
課程概要 1、單詞含義 2、word2vec介紹 3、word2vec目標函式的梯度推導 4、目標函式優化:梯度下降法 一、單詞含義 含義(meaning)指的是由單詞表達的觀點。我們一般使用單詞含義的方法是,使用像WordNet那樣的分類詞典,給每個單詞對應的上下義關係以及同義
斯坦福大學-自然語言處理入門 筆記 第二十一課 問答系統(2)
一、問答系統中的總結(summarization) 目標:產生一個摘要文字包含那些對使用者重要和相關的資訊 總結的應用領域:任何文件的摘要和大綱,郵件摘要等等 根據總結的內容,我們可以把總結分為兩類: 單文件總結:給出一個單一文件的摘要、大綱、標題
斯坦福大學-自然語言處理入門 筆記 第二十課 問答系統(question answering)
1、什麼是問答系統 問答系統是最早的NLP任務,根據問題的依存關係,找到適合的依存關係的回答。 在現代系統中問題被分為兩類 事實問題的回答一般都是一個簡單的片語或者是命名實體 兩種問答系統的正規化 基於資訊檢索的路徑:TREC; I
斯坦福大學-自然語言處理入門 筆記 第十九課 單詞含義與相似性
一、單詞含義與單詞關係 回顧:詞目(lemma)與單詞形式(wordform) 詞目:表示相同的詞根、詞性以及大致的語義 單詞形式:表示在文件中出現的具體單詞形式 一個詞目可能會含有很多含義(sense)。含義(sense)表示單
斯坦福大學-自然語言處理入門 筆記 第十八課 排序檢索介紹(ranked retrieval)
一、介紹 之前我們的請求都是布林型別。對於那些明確知道自己的需求並且瞭解集合體情況的使用者而言,布林型別的請求是很有效的。但是對於大部分的其他使用者而言,布林請求的問題是:大部分使用者不熟悉布林請求;布林請求比較複雜;布林請求的結果不是太多就是太少。排序檢索應運而生。 排序
斯坦福大學-自然語言處理入門 筆記 第十七課 資訊檢索(information retrieval)
一、介紹 資訊檢索(information retrieval)是從海量集合體(一般是儲存在計算機中的文字)中找到滿足資訊需求(information need)的材料(一般是文件) 資訊檢索的應用領域:網頁搜尋,郵件搜尋,電腦內部搜尋,法律資訊檢索等等 資訊檢索的基
斯坦福大學-自然語言處理入門 筆記 第十六課 依存句法分析(Dependency Parsing)
一、介紹 1、依存句法 依存句法假設:句法結構包含相互之間是雙邊不對稱關係的詞典(lexical)元素,這種不對稱的關係成為依存(dependency),在圖中的表現是單向箭頭。 箭頭通常還會打上這種語法關係的名字(主語,前置賓語等等) 箭頭一邊連線中心詞head
斯坦福大學-自然語言處理入門 筆記 第十五課 詞彙化(Lexicalization)的PCFGs
一、介紹 一個短語的中心詞(head word)可以很好地代表這個短語的結構和含義,在構建PCFG模型的時候,可以考慮將這部分資訊納入其中。如下圖所示加入單詞資訊可以幫助我們更好地選擇出合適的模型。 二、Charniak模型 Charniak模型是詞彙化P
斯坦福大學-自然語言處理入門 筆記 第十四課 CGSs和PCFGs
一、概率上下文無關文法((Probabilistic) Context-Free Grammars) 1、上下文無關文法(Context-Free Grammars) 我們也可以稱之為片語結構語法(Phrase structure grammars) 由四個成分構成G=
斯坦福大學-自然語言處理入門 筆記 第十三課 統計語言句法分析(prasing)
課程來源:Introduction to NLP by Chris Manning & Dan jurafsky 關於專用名詞和概念:剛接觸NLP領域,所以有些專有名詞的翻譯和專有概念可能會存在一定的偏誤,隨著學習的深入,我會隨時更新改正。 一、關於句法結構的兩種看法
斯坦福大學-自然語言處理入門 筆記 第十二課 詞性標註(Part-of-speech tagging)
一、詞性(part-of-speech)介紹 詞性:名詞(Nouns),動詞(Verbs),形容詞(Adjectives), 副詞(Adverbs)等等就是我們想要研究的詞性 我們可以把詞性分為開放類(open class)和閉合類(closed class)。
斯坦福大學-自然語言處理入門 筆記 第十一課 最大熵模型與判別模型(2)
一、最大熵模型 1、模型介紹 基本思想:我們希望資料是均勻分佈的,除非我們有其他的限制條件讓給我們相信資料不是均勻分佈的。均勻分佈代表高熵(high entropy)。所以,最大熵模型的基本思想就是我們要找的分佈是滿足我們限制條件下,同時熵最高的分佈。 熵:表示分佈的不
斯坦福大學-自然語言處理入門 筆記 第十課 關係抽取(relation extraction)
一、簡介 關係抽取就是從文件中抽取關係,例子如下: 為什麼進行關係抽取 建立新的關係型知識庫(knowledge bases) 增強目前的知識庫(knowledge bases) 支援問題回答(question answering)
斯坦福大學-自然語言處理入門 筆記 第九課 資訊抽取(information extraction)
一、介紹 1、資訊抽取(information extraction) 資訊抽取(IE)系統 找到並理解文字中的有限的相關性 從很多的文件之中收集資訊 產生一個相關資訊的結構化的表徵 目的: 進行資
斯坦福大學-自然語言處理入門 筆記 第八課 最大熵模型與判別模型
一、生成模型與判別模型 1、引言 到目前為止,我們使用的是生成模型(generative model),但是在實際使用中我們也在大量使用判別模型(discriminative model),主要是因為它有如下的優點: 準確性很高 更容易包含很多和
斯坦福大學-自然語言處理入門 筆記 第七課 情感分析(sentiment analysis)
一、情感分析簡述 情感分析(sentiment analysis),又叫意見抽取(opinion extraction),意見挖掘(opinion mining),情感挖掘(sentiment mining)以及主觀分析(subjectivity analysis)。 情感分
斯坦福大學-自然語言處理入門 筆記 第六課 文字分類與樸素貝葉斯
一、文字分類任務概述 1、應用領域 歸類 垃圾郵件識別 作者識別 性別/年齡識別 等等 2、定義 輸入:一個文件d,一系列固定的型別C={c1,c2,…,cj} 輸出:預測類別c ∈ C 3、分類方法