彷徨 | HDFS客戶端基本shell操作
阿新 • • 發佈:2019-02-06
# HDFS 的shell練習
# hdfs version 檢視HDFS版本
# hadoop fs -ls / 檢視HDFS根目錄下的檔案和目錄
# hdfs dfs -ls -R /這條會列出/目錄下的左右檔案,由於有-R引數,會在資料夾和子資料夾下執行ls操作 , 會遞迴
# hadoop fs -mkdir /test 在根目錄建立一個目錄test
# hdfs dfs -cat /hdfs-mgmt.sh 檢視hdfs檔案中的內容
# hdfs dfs -copyToLocal /hdfs-mgmt.sh 下載,即把檔案複製到本地
# hdfs dfs -rm -f /hdfs-mgmt.sh 刪除檔案
# hadoop fs -put ./zhang / 或 # hadoop fs -copyFromLocal ./zhang / 上傳檔案
# hadoop fs -get /zhang 下載檔案
# hadoop fs -rm /zhang
# hadoop fs -mv /test/test.txt /test1
# hadoop fs -rmr /test1
在客戶端輸入Hadoop fs,可以檢視所有的,hadoop shell
# -help [cmd] //顯示命令的幫助資訊,如: hadoop fs -help ls
# -ls(r) <path> //顯示當前目錄下所有檔案,path是hadoop下的路徑,如:/shikun/file
# -du(s) <path> //顯示目錄中所有檔案大小
# -count[-q] <path> //顯示目錄中檔案數量
# -mv <src> <dst> //移動多個檔案到目標目錄
# -cp <src> <dst> //複製多個檔案到目標目錄
# -rm(r) //刪除檔案(夾)
# -put <localsrc> <dst> //本地檔案複製到hdfs
# -copyFromLocal //同put
# -moveFromLocal //從本地檔案移動到hdfs
# -get [-ignoreCrc] <src> <localdst> //複製檔案到本地,可以忽略crc校驗
# -getmerge <src> <localdst> //將源目錄中的所有檔案排序合併到一個檔案中
# -cat <src> //在終端顯示檔案內容
# -text <src> //在終端顯示檔案內容
# -copyToLocal [-ignoreCrc] <src> <localdst> //複製到本地
# -moveToLocal <src> <localdst>
# -mkdir <path> //建立資料夾
# -touchz <path> //建立一個空檔案