1. 程式人生 > >pytorch載入已訓練好的word-embedding

pytorch載入已訓練好的word-embedding

十一的時候已將pytorch的tutorial看過了,但是並沒有用pytorch做什麼專案,一直以來都是用tensorflow搭建框架,但是因為其是靜態網路,不能處理if…else等等操作,於是轉而用pytorch實現,將遇到的一些問題放在此處,因為腦子不好使啊,哈哈
如果是隨機初始化的向量,是這麼定義的:

self.word_embeds = nn.Embedding(vocab_size, embedding_dim)

如果pretrained_weight是已經訓練好的詞向量,載入方式一如下:

self.word_embeds = nn.Embedding(vocab_size, embedding_dim)
pretrained_weight = np.array
(pretrained_weight) self.embed.weight.data.copy_(torch.from_numpy(pretrained_weight))
self.word_embeds = nn.Embedding(vocab_size, embedding_dim)
if pre_word_embeds is not None:
  self.pre_word_embeds = True
   self.word_embeds.weight = nn.Parameter(torch.FloatTensor(pre_word_embeds))
else:
    self
.pre_word_embeds = False

相關推薦

pytorch載入訓練word-embedding

十一的時候已將pytorch的tutorial看過了,但是並沒有用pytorch做什麼專案,一直以來都是用tensorflow搭建框架,但是因為其是靜態網路,不能處理if…else等等操作,於是轉而用pytorch實現,將遇到的一些問題放在此處,因為腦子不好使啊

pytorch在cpu上載入預先訓練的GPU模型以及GPU上載入CPU上訓練的Model

有時候我們在CPU上訓練的模型,因為一些原因,切換到GPU上,或者在GPU上訓練的模型,因為條件限制,切換到CPU上。 GPU上訓練模型時,將權重載入到CPU的最佳方式是什麼?今天我們來討論一下: 提取模型到指定的裝置 從官方文件中我們可以看到如下方法 torch.load('ten

TF:利用TF的train.Saver載入曾經訓練的variables(W、b)以供預測新的數據

oat tor range mage true com 技術 int num import tensorflow as tf import numpy as np W = tf.Variable(np.arange(6).reshape((2, 3)), dtype=t

Keras 使用:載入已經訓練的模型進行預測

使用Keras訓練好的模型用來直接進行預測,這個時候我們該怎麼做呢?【我這裡使用的就是一個圖片分類網路】 現在讓我來說說怎麼樣使用已經訓練好的模型來進行預測判定把 首先,我們已經又有了model模型,這個模型被儲存為model.h5檔案 然後我們需要在程式碼裡面進行載入 mode

如何使用tensorflow載入keras訓練的模型

感謝 How to convert your Keras models to Tensorflow 前言 最近實驗室碰到一個奇怪的需求,大家分別構建不同的NLP模型,最後需要進行整合,可是由於有的同學使用的是keras,有的同學喜歡使用TensorFlow,這樣導致

opencv-python(十三):DNN模組載入caffe訓練的SSD模型

    opencv越來越強大了,可以直接對訓練好的caffe、tensorflow等框架訓練好的模型進行載入,進而完成識別、檢測等任務。     opencv載入caffe訓練好的模型,採用readNetFromCaffe(arg1,arg2),第一個引數對應定義模型結構

PyTorch(三)——使用訓練的模型測試自己圖片

PyTorch的學習和使用(三) 在上一篇文章中實現瞭如何增加一個自定義的Loss,以Siamese network為例。現在實現使用訓練好的該網路對自己手寫的數字圖片進行測試。 首先需要對訓練時的權

skflow 儲存,呼叫訓練的模型

使用skflow 進行模型訓練,往往需要很多的時間,特別是資料量增大的時候。 這樣每次預測都重新訓練一次模型是不現實的。 而模型往往需要重複使用,因此將訓練好的模型儲存下來並隨時呼叫時很有必要的。 下面設訓練好的模型是   classifier   用.save屬性將 cl

Pytorch求索(3):使用訓練的詞向量

nn.Embedding Pytorch自帶Embedding模組,可以方便使用 self.embed = nn.Embedding(vocab_size, embedding_dim) 那麼,如何使用已經訓練好的詞向量呢? 詞向量其實是模型的embedding層的權重,所

利用keras載入訓練的.H5檔案,並預測圖片

import matplotlib matplotlib.use('Agg') import os from keras.models import load_model import numpy as np from PIL import Image import cv2

tensorflow載入訓練的模型例項

1. 首先了解下tensorflow的一些基礎語法知識 這裡不再詳細說明其細節,只舉例學習。 1.1 tensorflow的tf.transpose()簡單使用: tf.reshape(tensor, shape, name=None) 矩陣變形是常用的

pytorch學習筆記之載入訓練模型

原文:https://blog.csdn.net/weixin_41278720/article/details/80759933  pytorch自發布以來,由於其便捷性,贏得了越來越多人的喜愛。 Pytorch有很多方便易用的包,今天要談的是torchvision包,

[ pytorch ] ——基本使用:(2) 訓練的模型引數的儲存以及呼叫

1、儲存與呼叫 def modelfunc(nn.Module): # 之前定義好的模型 # 由於pytorch沒有像keras那樣有儲存模型結構的API,因此,每次load之前必須找到模型的結構。 model_object = modelfunc # 匯入模

PyTorch學習系列(十五)——如何載入訓練模型?

PyTorch提供的預訓練模型 PyTorch定義了幾個常用模型,並且提供了預訓練版本: AlexNet: AlexNet variant from the “One weird trick” paper. VGG: VGG-11, VGG-13, VGG

keras中訓練的模型儲存與載入

keras中的採用Sequential模式建立DNN並持久化保持、重新載入 def DNN_base_v1(X_train, y_train): model = models.Sequential() model.add(layers.Dense(96,

Keras如何儲存和載入訓練的模型和引數

1,儲存模型: my_model = create_model_function( ...... ) my_model.compile( ...... ) my_model.fit( ...... ) model_name . save( filepath, ove

tensorflow儲存和載入訓練的模型

儲存模型 saver = tf.train.Saver()建立一個saver物件 saver.save(sess,'path')將模型儲存在指定的path路徑中 該路徑中生成的檔案有四個, checkpoint檔案儲存了一個錄下多有的模型檔案列表, model.ckpt.

Pytorch載入部分預訓練模型的引數

前言自從從深度學習框架caffe轉到Pytorch之後,感覺Pytorch的優點妙不可言,各種設計簡潔,方便研究網路結構修改,容易上手,比TensorFlow的臃腫好多了。對於深度學習的初學者,Pytorch值得推薦。今天主要主要談談Pytorch是如何載入預訓練模型的引數以

Pytorch 快速入門(七)載入訓練模型初始化網路引數

在預訓練網路的基礎上,修改部分層得到自己的網路,通常我們需要解決的問題包括: 1. 從預訓練的模型載入引數 2. 對新網路兩部分設定不同的學習率,主要訓練自己新增的層 PyTorch提供的預訓練模型PyTorch定義了幾個常用模型,並且提供了預訓練版本:AlexNet: Al

pytorch模型的訓練、儲存和載入

PyTorch的學習和使用(七) 模型的訓練和測試 在訓練模型時會在前面加上: model.train()1 在測試模型時在前面使用: model.eval()1 同時發現,如果不寫這兩個程式也可以執行,這是因為這兩個方法是針對在網路訓練和測試