1.建立目錄

hadoop dfs -mkdir /data

hadoop dfs -mkdir -p /data/data1   建立多級目錄

2.檢視檔案

hadoop dfs -ls /

3.上傳檔案

hadoop dfs -put /usr/local/data/ /data

4.下載檔案 get,將hdfs檔案下載到linux本地

hadoop dfs -get /data/data/students.txt   下載到當前目錄

5. 複製   cp

hadoop dfs -cp /data/data/students.txt /data

6. 檢視檔案內容 cat , 如果資料量比較大,不能使用

hadoop dfs -cat /data/data/students.txt

7. 移動 mv, 物理層面檔案沒有移動,只是改變了元資料(目錄結構)

hadoop dfs -mv /data/data/students.txt  /

8. 刪除檔案或者目錄   rmr  但其實並沒有真正刪除,只是一個mv放到了回收站,回收站會自動清理

hadoop dfs -rmr /data/student.txt

etc下的hadoop配置檔案中 cat core-site.xml

手動刪除回收站
Hadoop dfs -rmr /user/root/.Trash/Current

強制刪除,-skipTrash 當需要刪除的檔案比較大的時候
hadoop dfs -rmr -skipTrash /a

9. 檢視檔案末尾 tail -f ; 一直等待檢視
hadoop dfs -tail /data/data/students.txt

10. 檢視檔案的大小
hadoop dfs -du -h /data

11.hdfs中的檔案都是儲存datanode子節點上,在子節點上的位置

usr/local/soft/hadoop-2.7.6/tmp/dfs/data/current/BP-626788496-192.168.163.110-163187979/current/finalized/subdir0/subdir0

12.安全模式(在安全模式不能進行修改操作,可以檢視)

hadoop dfsadmin -safemode get   用來檢視當前hadoop安全模式的開關狀態

hadoop dfsadmin -safemode enter 命令是開啟安全模式

hadoop dfsadmin -safemode leave 命令是離開安全模式