1. 程式人生 > >(原)torch7中指定可見的GPU

(原)torch7中指定可見的GPU

編號 設置 get href visible uda blog 電腦 arc

轉載請註明出處:

http://www.cnblogs.com/darkknightzh/p/7418694.html

參考網址:

https://gitter.im/torch/torch7/archives/2015/05/21

https://gitter.im/torch/torch7/archives/2015/09/04

在使用tensorflow時,可以指定哪些GPU可見,這樣tensorflow在分配內存時,不會把每個gpu都分配內存。

以前使用torch7時,一直是直接th script.lua。但是電腦上有多個gpu時,每個gpu均會占用186M的顯存。雖然占用的不多,但是總感覺不爽。

實際上,也可以設置運行torch的lua程序時,哪些gpu可見(默認全部可見)。如下:

CUDA_VISIBLE_DEVICES=2,3 th script.lua

上面GPU編號從0開始,相當於使用電腦中的第三個和第四個GPU(lua默認從1開始)。

程序中在使用cutorch時,GPU由於從1開始,以前使用3,4這兩個,加上上面那句話後,程序內部改成1,2這兩個GPU即可(加上那句話後,可見的GPU就是1,2了)。

(原)torch7中指定可見的GPU