EMNLP2018論文解讀:三種提升多語言翻譯模型的高效策略
本文( 《三種提升一對多多語言翻譯策略》 )是搜狗和中科院自動化所合作發表在 EMNLP 2018 上的工作。搜狗翻譯目前採用業界領先的神經網路機器翻譯框架支援 60 種以上不同語言之間的互譯,考慮到當前支援單一語言對的翻譯模型需要較大規模儲存和計算資源,而支援一對多多語言翻譯模型雖然能較好的解決資源佔用卻面臨著翻譯質量不高的問題,所以搜狗翻譯對實現和優化多語言翻譯模型存在客觀需要。

論文連結:PaperWeekly
論文方法
當前主流的一對多的多語言翻譯模型在該研究之前還存在一定的不合理性。 這種不合理性主要體現在不同語言都包含其特有的語義資訊和句法結構,用同一套分散式向量表徵會導致模型存在相應的偏差。
鑑於此, 該工作提出了三種策略,改進了多語言翻譯框架來提升多語言神經翻譯模型的翻譯質量。

該策略首先 將目標端句子初始位置加上表徵翻譯方向的標籤,指示翻譯生成的方向 。其次,考慮對於不同的語言而言,結構具有不一致性,這裡 針對不同的語言嘗試使用不同的位置向量來表徵相應的時序資訊 。該工作對比了絕對位置和相對位置兩種不同的建模方式。
最後,由於神經網路結構的隱層向量包含著語義資訊和句法結構,區別於使用同一套隱層單元表示不同的語言, 該策略採用了共享和特有的方式 ,其中共享一部分隱層向量表徵不同語言的共性,而其他部分隱層向量用來表示不同語言特有的屬性。

實驗結果
該工作是針對當前多語言翻譯模型的表徵問題來提升多語言翻譯效能的一次嘗試,將不同語言特有屬性融合到翻譯模型當中,取得了顯著的提升。


#投 稿 通 道#
如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢? 答案就是:你不認識的人。
總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋樑,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是 最新論文解讀 ,也可以是 學習心得 或 技術乾貨 。我們的目的只有一個,讓知識真正流動起來。
:memo: 來稿標準:
• 稿件確係個人 原創作品 ,來稿需註明作者個人資訊(姓名+學校/工作單位+學歷/職位+研究方向)
• 如果文章並非首發,請在投稿時提醒並附上所有已釋出連結
• PaperWeekly 預設每篇文章都是首發,均會新增“原創”標誌
:mailbox_with_mail: 投稿方式:
• 方法一:在PaperWeekly知乎專欄頁面點選“投稿”,即可遞交文章
• 方法二:傳送郵件至: [email protected] ,所有文章配圖,請單獨在附件中傳送
• 請留下即時聯絡方式(微信或手機),以便我們在編輯釋出時和作者溝通
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選 「交流群」 ,小助手將把你帶入 PaperWeekly 的交流群裡。
加入社群: ofollow,noindex"> http:// paperweek.ly
微信公眾號:PaperWeekly