1. 程式人生 > >知識表示學習1多元關係資料翻譯嵌入2知識表示學習關係路徑建模(公號回覆“知識表示學習”下載彩標PDF典藏版資料)

知識表示學習1多元關係資料翻譯嵌入2知識表示學習關係路徑建模(公號回覆“知識表示學習”下載彩標PDF典藏版資料)

知識表示學習1多元關係資料翻譯嵌入2知識表示學習關係路徑建模(公號回覆“知識表示學習”下載彩標PDF典藏版資料)

原創: 秦隴紀 資料簡化DataSimp 今天

資料簡化DataSimp導讀:醫學AI讀書會兩篇論文:[1]Bordes A, Usunier N, Garcia-Duran A, et al. Translating Embeddings for ModelingMulti-relational Data[C]// International Conference on Neural InformationProcessing Systems. Curran Associates Inc. 2013:2787-2795. [2] Lin Y, Liu Z,Luan H, et al. Modeling Relation Paths for Representation Learning of KnowledgeBases[J]. Computer Science, 2015.漢譯文。荷蘭阿姆斯特丹自由大學黃智生教授線上醫學人工智慧讀書會第8期《知識表示學習報告

(文獻閱讀報告)將於2018年10月31日(星期三)北京時間晚8點到9點,在醫學人工智慧讀書會釘釘群直播,屆時由武漢科技大學計算機學院劉茂福團隊(武漢)劉茂福教授團隊做報告。內容簡介:知識表示學習自2013年以來一直是各大頂會熱點,該類模型將知識圖譜中實體和關係嵌入為低維空間向量的同時,保持其空間結構不變,從而有效解決資料稀疏度和計算效率問題。本次報告以TransE和PTransE為切入點介紹知識表示學習相關模型。

自然語言處理(Natural Language Processing,NLP)是電腦科學、人工智慧、語言學領域的學科分支、交叉學科,關注計算機和人類(自然)語言之間的相互,研究實現人與計算機之間使用自然語言進行有效通訊的各種理論和方法的領域。“資料簡化DataSimp”上期:自然語言處理髮展史上的十大里程碑、NLP知識結構,以及NLP國內研究方向、機構、導師,從兩個NLP傳統研究問題出發,總結以下十大里程碑:複雜特徵集、詞彙主義、統計語言模型、神經語言模型、多工學習、詞嵌入、RNN/CNN用於NLP的神經網路、序列到序列模型、注意力機制網路、預訓練語言模型。祝大家學習愉快~ 要推進人類文明,不可止步於敲門吶喊;設計空想太多,無法實現就虛度一生;工程能力

至關重要,秦隴紀與君共勉之。

知識表示學習1多元關係資料翻譯嵌入2知識表示學習關係路徑建模(10237字)

目錄

A知識表示學習1多元關係資料翻譯嵌入建模(7320字)

1 簡介

2 transE模型

3 相關工作

4 實驗(1資料集2實驗設定3連結預測4用幾個例子學習預測新關係)

5 總結和展望

B知識表示學習2知識表示學習關係路徑建模(1135字)

參考文獻(1465字)Appx(845字).資料簡化DataSimp社群簡介


A知識表示學習1多元關係資料翻譯嵌入建模(7320)

知識表示學習1多元關係資料翻譯嵌入建模

文|Bordes A, Usunier N, Garcia-Duran A等,譯|秦隴紀,資料簡化DataSimp20181029Mon

論文標題Translating Embeddings for Modeling Multi-relational Data

標題翻譯多元關係資料翻譯嵌入建模

摘要:考慮多元關係資料的實體和關係在低維向量空間的嵌入問題。我們的目標是提出一個權威模型,該模型比較容易訓練,包含一組簡化了的引數,並且能夠擴充套件到非常大的資料庫。因此,我們提出了TransE,一個將關係作為低維空間實體嵌入的翻譯的方法。儘管它很簡單,但是這種假設被證明是強大的,因為大量的實驗表明在兩個知識庫連線預測方面,TransE明顯優於目前最新的方法。除此之外,它能夠成功地訓練一個有1M的實體,25k的關係和超過17M的訓練樣例的大規模資料集。

會議型別:Poster, Partof: Advances in Neural Information Processing Systems 26 (NIPS 2013)

原文網址:http://papers.nips.cc/paper/5071-translating-embeddings-for-modeling-multi-relational-data

Authors: Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, Oksana Yakhnenko

Abstract: We consider the problem of embedding entities andrelationships of multi-relational data in low-dimensional vector spaces. Ourobjective is to propose a canonical model which is easy to train, contains areduced number of parameters and can scale up to very large databases. Hence,we propose, TransE, a method which models relationships by interpreting them astranslations operating on the low-dimensional embeddings of the entities.Despite its simplicity, this assumption proves to be powerful since extensiveexperiments show that TransE significantly outperforms state-of-the-art methodsin link prediction on two knowledge bases. Besides, it can be successfullytrained on a large scale data set with 1M entities, 25k relationships and morethan 17M training samples.

1 簡介

多元關係資料適用於有向圖,圖的結點元組(head,label,tail)對應(表示為(h,l,t)),每個元組意為在實體head和tail之間存在一個名為label的關係。多元關係資料模型在很多領域扮演著很重要的角色。例如社交網路,實體是成員,邊是朋友/社會關係連線,又如推薦系統中的實體是使用者和產品,關係為買,評級,檢索或搜尋一個商品,再或知識庫,如Freebase,Google知識圖譜或Gene Ontology,這些知識庫中的每個實體代表世界中的一個抽象概念或者具體的實體,關係式謂詞,代表他們兩個之間的事實。我們的工作重點是對知識庫的多元關係資料建模,提出一個高效地工具通過自動增加事實,而不需要額外的知識來完成它們。

多元關係資料建模一般而言,建模過程歸結為抽取實體間區域性或者總體的連線模式,通過這些模式概括觀測的一個特定的實體和其它所有的實體之間的關係來預測。一個區域性的單個關係的概念可能是一個純粹的結構,比如在社交網路中,我的朋友的朋友是我的朋友,但也可以依賴於實體,例如,一些喜歡看Star Wars IV的人也喜歡Star Wars V,但是他們可能喜歡Titanic也可能不喜歡。相比之下,經過一些資料的描述性分析後可以形成單關係資料專門的但是簡單地模型假設。關係資料的難點在於區域性概念在同一時間可能涉及關係和實體的不同型別,以致對多關係資料建模時要求更一般的方法,這種方法能在考慮所有多樣的關係同時選擇合適模型。

文獻[6]指出,隨著基於使用者/專案聚類或矩陣分解的協同過濾技術在表示單關係資料的實體連線模型之間極大地相似之處的成功,為了處理多關係資料,大多數的方法都是基於從潛在的特徵進行關係學習的框架下進行設計的;也就是說,通過實體和關係的潛在表示來學習和操作。在多關係領域,這些方法的擴充套件形式例如隨機塊模型[7][10][11]的非參貝葉斯擴充套件和基於張量分解[5]或者集體矩陣分解[13][11][12]的模型,在低維空間實體嵌入學習方面,這些最近的方法很多都致力於增加模型的表達性和一般性,不管是貝葉斯聚類框架還是能量模型。這些方法的表達性雖然有較大的提高,但是也大幅增加了模型的複雜性,以致模型假設很難解釋,且計算成本更高。除此之外,這樣的方法可能受限於過擬合,因為對如此複雜的模型進行適當的正則化是很難的,或者受限於欠擬合,因為非凸優化問題有很多的區域性極小值,這些是需要解決和訓練的。事實上,文獻[2]指出了一個簡單的模型(線性代替雙線性)在一個具有相對較多數量的不同關係的幾個多元關係資料集上取得了與大多數表達性好的模型同樣好的效能。這說明,即使在複雜和異質的多元關係領域,簡單但是恰當的模型假設能夠在精度和擴充套件性之間實現較好的折中。

關係在嵌入空間上的翻譯本文,我們介紹TransE,一個基於能量的模型,用於低維實體嵌入學習。在TransE中,關係表示為嵌入空間上的翻譯:如果有(h, l,t),那麼尾實體t的嵌入應該與頭實體的嵌入h加上一些依賴於關係l的向量接近。我們的方法依賴於一組簡化了的引數集學習每個實體和關係一個低維向量。

我們提出的基於翻譯的引數化模型的主要動機是層次關係在知識庫中是極常見的,而翻譯是為了解釋它們的一個自然變換。考慮樹的自然表示(比如,二叉樹),兄弟結點互相挨著,並且這些節點在x軸上以一定的高度排列,父親-孩子關係與在y軸上的一個翻譯對應。因為一個空的翻譯向量與兩個實體之間的關係等價是對應的,所以,這個模型同樣能夠表示兄弟關係。因此,我們選擇使用每個關係的引數預算(一個低維向量)來表示在知識庫中我們所考慮的關鍵關係。我們的第二個動機來源於文獻[8],作者從自由文字中學習詞嵌入,並且不同實體之間有1對1的關係,例如國家和城市之間的省會關係,表示為嵌入空間上的翻譯。這說明可能存在這樣一個嵌入空間,不同型別實體之間存在1對1關係,且被表示為翻譯。我們的模型的目的是加強嵌入空間中的這樣的結構。

第4節的實驗證明這是一個新模型,儘管它很簡單且主要是為層次結構模型的問題建模,但是它在大多數的各種各樣的關係下被證明是是很有效的,並且在realworld知識庫中的連線預測方面,明顯優於目前最新的方法。除此之外,較少的引數使得它能夠成功訓練從包含1M實體和25k的關係並且超過17M的訓練樣例分割的Freebase大規模資料集。

在第2節我們描述我們的模型並且在第3節討論它和相關方法的聯絡。第4節我們詳述基於Wordnet和Freebase相關的大量實驗,並拿TransE和文獻中的很多方法做比較。在第5節裡,闡述結論並指出未來的研究方向。

2 transE模型

3 相關工作

4 實驗(1資料集2實驗設定3連結預測4用幾個例子學習預測新關係)

TransE的實驗資料是從Wordnet和Freebase中抽取的(它們的統計分佈已經在表2中給出),並以各種各樣的標準和擴充套件到相對較大的資料集上與文獻中幾個已經證明是現在最好的幾個方法比較。

4.1資料集

Wordnet 這個知識庫用於產生直覺上可用的字典和辭典,並且支援自動文字分析。它的實體對應著詞義,關係定義它們之間的詞彙關係。我們使用了文獻[2]中使用的資料版本,我們在下面表示WN。元組的樣例為(score NN 1,hypernym, evaluation NN 1)或者(score NN 2,has part, musical notation NN 1)。

FreebaseFreebase是一個一般事實很大並且不斷增長的知識庫;目前有大約12億的元組和超過8千萬的實體。我們用Freebase構造兩個資料集,做一個小的資料集在我們所選擇的實體子集上做實驗,這個資料集也在Wikilinks資料庫中,並且至少有100個在Freebase中(包含實體和關係)。我們移除像’!/people/person/nationality’的關係,與關係’/people/person/nationality’相比僅僅把頭和尾互換。結果是含有14951個實體和1345個關係的592,213個元組被隨機分割,如表2。在本節的剩餘部分這個資料集表示為FB15k。我們也想用一個大規模的資料在規模上去測試TransE。因此,我們從Freebase構造了另一個數據集,通過選擇最頻繁出現的1百萬個實體。這個分割大約有25k的關係和超過170萬的訓練元組,稱為FB1M。

4.2實驗設定

評價方案我們使用跟文獻[3]一樣的排名過程。對每個測試元組,頭部被移去或者被字典中的每個實體輪流替換。首先通過模型計算這些錯誤元組的相似性(或者能量),然後按升序排列;最後,正確的實體排名被儲存。重複這個過程,把移去頭部用移去尾部代替。我們報告這些預測排名的平均值和[email protected],也就是,排在前10的正確實體的比例。

這些度量有一定的參考性但是當一些錯誤元組在驗證集上時也有缺陷。在這種情況下,這些可能排在測試元組之上,但是這不應該被作為一個錯誤計算,因為這兩者都是正確的。為了避免這樣一個誤導的行為,我們移除所有的錯誤元組,不管是出現在訓練集和驗證集或者測試集中的。這保證了所有的錯誤元組不屬於資料集。在下文中,我們報告這兩種設定下的平均排名和[email protected]:原始的資料在論文中為raw,新的為filt。在FB1M的實驗上,我們僅提供了原始資料的結果。

標準第一個方法是無結構的,TransE的一個版本,只考慮了資料的單一關係並且置所有的翻譯為0(文獻[2]也將它作為標準使用)。我們也和RESCAL作比較,RESCAL是文獻[11][12]提出的集體矩陣分解模型,同時也和文獻[3]的能量模型SE、文獻[2]中的SME(線性)/SME(雙線性)以及文獻[6]的LFM作比較。RESCAL通過交替最小二乘法訓練,其它的與TransE一樣通過隨機梯度下降訓練。表1比較了模型的理論引數數量,並且在FB15k上給出了數量級。SME(線性), SME(雙線性), LFM和TransE作為無結構的低維嵌入的引數數量幾乎一樣,對於SE和RESCAL演算法,每個關係要學習至少k*k維的矩陣,因此需要學習更多的引數。在FB15k上,RESCAL大約需要87倍多的引數,因為它比其它模型需要一個較大的嵌入空間以取得較好的效能。因為引數的規模和訓練時間原因我們沒有在FB1M上做關於RESCAL,SME和LFM的實驗。

我們所有的訓練方法得程式碼都是由提出這些方法的作者提供的。對於RESCAL,由於規模原因,我們必須設定正則化引數為0,這一點在文獻[11]中已經表明,並且在{50,250,500,1000,2000}中選擇隱藏維數k,這可以導致在驗證集上取得較低的平均預測排名(使用原始資料)。對於無結構的SE, SME(線性)和SME(雙線性),在{0.001,0.01,0.1}中選擇學習率,在{20,50}中選擇k,並且使用在驗證集上的平均排名來選擇最好的模型(在訓練資料上最多執行1000次)。對於LFM,我們也是用平均驗證排名來選擇模型,並在{25,50,75}中選擇隱藏維數,在{50,100,200,500}中選擇因素的數量,在{0.01,0.1,0.5}中選擇學習率。

實現關於TransE的實驗,對於隨機梯度下降的學習率λ從{0.001,0.01,0.1}中選擇,邊際值γ從{1,2,10}中選擇,k從{20,50}中選擇。相似性度量d根據驗證的效能選擇L1選擇L2。優化配置為:在Wordnet上k=20,λ=0.01,γ=1,d=L1;在FB15k上,k=50,λ=0.01,γ=1,d=L1;在FB1M上,k=50,λ=0.01,γ=1,d=L2。對所有的訓練集,訓練時間最多為1000次。最好的模型通過驗證集(原始資料)上的平均排名來選取。在註釋6的網頁上公開了TransE的實現資源。

4.3連結預測

表3:連結預測結果。不同方法的效能。

總體結果表3顯示了所有資料集所有方法的比較。與預期結果一致,經過過濾設定的結果具有較低的平均排名和較高的[email protected],相信在連結預測方面對各種方法有一個清晰地效能評估。然而,raw和filtered的趨勢是一樣的。

我們的方法TransE在所有度量上面通常很大程度上優於所有進行比較的方法,並且取得了一些絕對好的效能例如WN上89%的[email protected](超過40k的實體)和在FB1M上的34%的[email protected](超過1M的實體)。TransE和這些第二好的方法之間的不同之處是很重要的。

我們相信TransE良好的效能是由於對資料恰當的建模,但也是由於模型相對簡單。這意味著它能夠用隨機梯度有效的優化。第3節我們已經說明SE比我們的模型更具表達性。然而,它的複雜性可能使它學習起來十分困難,導致效能很差。在FB15k上,在訓練集的一個有50k的元組的子集上SE取得了165的平均排名和35.5%的[email protected],TransE則分別取得了127和42.7%,這表明事實上TransE欠擬合的程度更小,這可能能解釋它比較好的效能。SME(雙線性)和LFM有同樣的訓練問題:我們從來都沒有成功的把它們訓練的足夠好來開發出它們所有的功能。通過我們的評價設定–基於實體排名,LFM較差的結果也可以解釋,因為LFM最初是為了預測關係提出來的。在FB15k上,RESCAL能夠取得十分好的[email protected],但是平均排名方面比較差,尤其在WN上,即使我們用很大的隱藏維度(2000 onWordnet)。

翻譯的影響是巨大的。當比較TransE和非結構的方法(也就是缺少翻譯的TransE),非結構化的平均排名相對較好,但是[email protected]非常差。非結構化的方法簡單的把所有出現的實體聚類,不依賴所涉及的關係,因此僅僅靠猜想來判斷實體相關。在FB1M上,TransE和非結構化方法的平均排名幾乎一樣,但是TransE的預測排在前10位的數目是非結構化方法的10倍之多。

表4:關係聚類的詳細結果。我們比較了在FB15k上以過濾資料為評價比較TransE和參考方法的[email protected]

詳細結果表4展示了在FB15k上依據關係的幾種類別的分類結果,並依此對幾種方法進行預測。我們根據頭和尾的基數引數把關係分為4類:1-1,1-多,多-1,多-多。如果一個頭部至多對應一個尾部,那麼它們的關係是1-1,如果一個頭部對應多個尾部,那麼它們的關係是1-多,如果很多頭部對應同一個尾部,那麼它們的關係是多-1,如果多個頭部對應多個尾部,那麼它們是多-多關係。通過下面的處理我們把關係分成這四類,給定一個序對(l,t)(同樣地,序對(h,l),對每個關係l,計算頭部h(同樣地,尾部t)出現在FB15k資料集上的平均數。如果這個平均數小於1.5就被標記為1-多等等。例如,每個尾部平均有1.2個實體並且每個頭部平均有3.2個尾部的關係被分類為1-多。我們得到在FB15k上有26.2%的1-1關係,22.7%的1-多關係,28.3%的多-1關係和22.8%的多-多關係。

表4中的詳細結果考慮了一個更精確的評估並且瞭解了這些方法的行為。首先,它出現了期望的結果,它能夠很容易的預測實體一方只有一個對應關係的元組的實體(也就是預測在關係1-多下預測頭部,在多-1關係下預測尾部),也就是有多個實體指向它的時候。這些是有很好指向的例子。SME(雙線性)被證明在處理這樣的例子時時很精確的,因為這些例子是它們訓練最多的樣例。非結構化的方法在1-1關係上顯示了良好的效能:這表明這樣的關係的引數必須共享相同的隱藏型別,而非結構化的方法在嵌入空間上通過聚類把實體連線在一起能夠發現這樣的隱藏型別。但是這種策略在其它關係型別上是失敗的。在嵌入空間增加翻譯,通過其後的關係從一個實體聚類到另一個實體聚類。對這些指向性很好的例子這一點是非常驚人的。

表5:TransE在FB15k測試集上的樣例預測。粗體是測試元組正確的尾部,斜體是訓練集上其它正確的尾部。

舉例說明表5給出了TransE在FB15k測試集上的樣例連結預測的結果。這舉例說明了我們模型的能力。給定一個頭部和一個標籤,排在最高位的尾部被描述出來。這些樣例來自FB15k的測試集。即使排在最高位的不總是最好的答案,但這個預測也反映了一般的常識。

4.4用幾個例子學習預測新關係

用FB15k,通過檢查這些方法在學習新關係時的速度有多快來測試他們在泛化新的事實方面有多好。為了那個目的,我們隨機選擇40個關係並且分割成兩個資料集:一個數據集(命名為FB15k-40rel)包含所有40個元組,另一個數據集(FB15k-rest)包含剩餘的資料。我們確保它們包含所有的實體。FB15k-rest被分割成一個包含353,788個元組的訓練集和一個包含53,266個元組的驗證集。FB15-rel分成40,000元組的訓練集和45,159的測試集。利用這些資料集,我們分析如下實驗:(1)利用FB15k-rest的訓練集和驗證集訓練和選擇最好的模型,(2)隨後在FB15k-40rel的訓練集上訓練並且只學習和新的40個關係相關的引數,(3)在FB15k-40rel的測試集(只包含(1)期間沒有見過的關係)上進行連線預測評估。在(2)階段,對每個關係我們用0,10,100和1000個樣例重複這個過程。

圖1:用幾個樣例學習心關係。比較試驗資料是FB15k資料集,使用平均排名(左)和[email protected](右)作為評價標準。更多細節參見下文。

圖1展示了非結構化方法,SE,SME(線性),SME(雙線性)和TransE的結果。但不提供已知關係時,非結構化方法取得的效能最好,因為它並不使用這些資訊去預測。但是,當提供關係的例子時這種效能並沒有得到提升。TransE是學習最快的方法:只有一個新關係的10個樣子時,它的[email protected]仍然有18%,並且隨著提供樣例的增加這個資料單調遞增。我們相信TransE模型的簡單性使它能夠有較好的泛化能力,而不必修改任何已經訓練好的嵌入。

5 總結和展望

我們提出了一種新的學習知識庫嵌入的方法,主要是最小化模型的引數,主要表示層次關係。通過與兩個不同且規模很大的知識庫上和其它方法比較,我們的模型效果很好,藉此我們把它應用到了大規模知識庫資料塊上。儘管還不清楚用我們的方法是否能夠充分地對所有的關係型別建模,但是通過關係分類評價與其他方法相比在所有的設定條件下它似乎有很好的效能。

後面會進一步分析這個模型,並且把它應用到更多的任務中,特別是應用到如文獻[8]提到的學習詞表示。結合知識庫和文字[2]是另一個重要的方向,我們的方法對此可能是有用的。因此,最近我們把TransE插入到一個框架中從文字[16]中進行關係抽取。

 


B知識表示學習2知識表示學習關係路徑建模(1135)

知識表示學習2知識表示學習關係路徑建模

文|Yankai Lin, Zhiyuan Liu, Maosong Sun,譯|秦隴紀,資料簡化DataSimp20181029Mon

論文標題Modeling Relation Paths for Representation Learning ofKnowledge Bases

標題翻譯知識表示學習關係路徑建模

Source: arXiv, June 2015, DOI:10.18653/v1/D15-1082

Authors: Yankai Lin, Zhiyuan Liu, Maosong Sun

Abstract and figures: Representation learning of knowledge bases (KBs) aimsto embed both entities and relations into a low-dimensional space. Mostexisting methods only consider direct relations in representation learning. Weargue that multiple-step relation paths also contain rich inference patternsbetween entities, and propose a path-based representation learning model. Thismodel considers relation paths as translations between entities forrepresentation learning, and addresses two key challenges: (1) Since not allrelation paths are reliable, we design a path-constraint resource allocationalgorithm to measure the reliability of relation paths. (2) We representrelation paths via semantic composition of relation embeddings. Experimentalresults on real-world datasets show that, as compared with baselines, our modelachieves significant and consistent improvements on knowledge base completionand relation extraction from text.

+2Figure content uploaded by Zhiyuan Liu

-End-


參考文獻(1465字)

1.Bordes A, Usunier N, Garcia-Duran A, et al. Translating Embeddings for ModelingMulti-relational Data[C]// International Conference on Neural InformationProcessing Systems. Curran Associates Inc. 2013:2787-2795.

2. Part of: Advances inNeural Information Processing Systems 26 (NIPS 2013).Translating Embeddings for ModelingMulti-relational Data.[EB/OL];NIPS2013,http://papers.nips.cc/paper/5071-translating-embeddings-for-modeling-multi-relational-data,2015-08.

3. Bordes A, Usunier N, Garcia-Duran A等.Translating Embeddings for Modeling Multi-relational Data 論文翻譯:多元關係資料嵌入.[EB/OL];CSDN,https://blog.csdn.net/u012052268/article/details/79045477,2018-01-12.

4.Lin Y, Liu Z, Luan H, et al. Modeling Relation Paths for RepresentationLearning of Knowledge Bases[J]. Computer Science, 2015.

5. Yankai Lin, Zhiyuan Liu, MaosongSun,DOI: 10.18653/v1/D15-1082.Modeling Relation Paths forRepresentation Learning of Knowledge Bases.[EB/OL];ResearchGate,https://www.researchgate.net/publication/277603477_Modeling_Relation_Paths_for_Representation_Learning_of_Knowledge_Bases,2015-07.

6. Yankai Lin, Zhiyuan Liu, MaosongSun,DOI: 10.18653/v1/D15-1082.Modeling Relation Paths forRepresentation Learning of Knowledge Bases.[EB/OL];ResearchGate,https://www.researchgate.net/publication/277603477_Modeling_Relation_Paths_for_Representation_Learning_of_Knowledge_Bases,2015-07.

x.秦隴紀.資料簡化社群Python官網Web框架概述;資料簡化社群2018年全球資料庫總結及18種主流資料庫介紹;資料科學與大資料技術專業概論;人工智慧研究現狀及教育應用;資訊社會的資料資源概論;純文字資料溯源與簡化之神經網路訓練;大資料簡化之技術體系.[EB/OL];資料簡化DataSimp(微信公眾號),http://www.datasimp.org,2017-06-06.

知識表示學習1多元關係資料翻譯嵌入2知識表示學習關係路徑建模(10237字)

秦隴紀

簡介:知識表示學習1多元關係資料翻譯嵌入2知識表示學習關係路徑建模。(公號回覆“知識表示學習”,文末“閱讀原文”可下載13圖13k字10頁PDF資料)藍色連結“資料簡化DataSimp”關注後下方選單有文章分類頁。作者:秦隴紀。來源:研究門、谷歌、CSDN等,資料簡化社群秦隴紀微信群聊公眾號,引文出處附參考文獻。主編譯者:秦隴紀,資料簡化、科學Sciences、知識簡化新媒體創立者,資料簡化社群創始人OS架構師/C/Java/Python/Prolog程式設計師,IT教師。每天大量中英文閱讀/設計開發除錯/文章匯譯編簡化,時間精力人力有限,歡迎轉發/讚賞/加入支援社群。版權宣告:科普文章僅供學習研究,公開資料©版權歸原作者,請勿用於商業非法目的。秦隴紀2018資料簡化DataSimp綜合匯譯編,投稿合作、轉載授權、侵權錯誤(包括原文錯誤)等請聯絡[email protected]溝通。歡迎轉發:“資料簡化DataSimp、科學Sciences、知識簡化”新媒體聚集專業領域一線研究員;研究技術時也傳播知識、專業視角解釋和普及科學現象和原理,展現自然社會生活之科學麵。秦隴紀發起期待您參與各領域~~ 強烈譴責超市銀行、學校醫院、政府公司肆意收集、濫用、倒賣公民姓名、身份證號手機號、單位家庭住址、生物資訊等隱私資料!


Appx(845字).資料簡化DataSimp社群簡介

資訊社會之資料、資訊、知識、理論持續累積,遠超個人認知學習的時間、精力和能力。應對大資料時代的資料爆炸、資訊爆炸、知識爆炸,解決之道重在資料簡化(Data Simplification):簡化減少知識、媒體、社交資料,使資訊、資料、知識越來越簡單,符合人與裝置的負荷。資料簡化2018年會議(DS2018)聚焦資料簡化技術(Data Simplification techniques)對各類資料從採集、處理、儲存、閱讀、分析、邏輯、形式等方ose 做簡化,應用於資訊及資料系統、知識工程、各類Python Web框架、物理空間表徵、生物醫學資料,數學統計、自然語言處理、機器學習技術、人工智慧等領域。歡迎投稿資料科學技術、簡化例項相關論文提交電子版(最好有PDF格式)。填寫申請表加入資料簡化DataSimp社群成員,應至少一篇資料智慧、程式設計開發IT文章:①高質量原創或翻譯美歐資料科技論文;②社群網站義工或完善S圈型黑白靜態和三彩色動態社群LOGO圖示論文投稿、加入資料簡化社群,詳情訪問www.datasimp.org社群網站,網站維護請投會員郵箱[email protected]。請關注公眾號“資料簡化DataSimp”留言,或加微信QinlongGEcai(備註:姓名/單位-職務/學校-專業/手機號),免費加入投稿群科學Sciences學術文獻讀者微信群等。長按下圖“識別圖中二維碼”關注三個公眾號(搜名稱也行,關注後底部選單有文章分類頁連結):

資料技術公眾號“資料簡化DataSimp”:

科普公眾號“科學Sciences”:

社會教育知識公眾號“知識簡化”:

(轉載請寫出處:©秦隴紀2010-2018匯譯編,歡迎技術、傳媒夥伴投稿、加入資料簡化社群!“資料簡化DataSimp科學Sciences知識簡化”投稿反饋郵箱[email protected]。)

普及科學知識,分享到朋友圈

轉發/留言/打賞後“閱讀原文”下載PDF

閱讀原文

微信掃一掃
關注該公眾號