1.建立目錄
hadoop dfs -mkdir /data
hadoop dfs -mkdir -p /data/data1 建立多級目錄
2.檢視檔案
hadoop dfs -ls /
3.上傳檔案
hadoop dfs -put /usr/local/data/ /data
4.下載檔案 get,將hdfs檔案下載到linux本地
hadoop dfs -get /data/data/students.txt 下載到當前目錄
5. 複製 cp
hadoop dfs -cp /data/data/students.txt /data
6. 檢視檔案內容 cat , 如果資料量比較大,不能使用
hadoop dfs -cat /data/data/students.txt
7. 移動 mv, 物理層面檔案沒有移動,只是改變了元資料(目錄結構)
hadoop dfs -mv /data/data/students.txt /
8. 刪除檔案或者目錄 rmr 但其實並沒有真正刪除,只是一個mv放到了回收站,回收站會自動清理
hadoop dfs -rmr /data/student.txt
etc下的hadoop配置檔案中 cat core-site.xml
手動刪除回收站
Hadoop dfs -rmr /user/root/.Trash/Current
強制刪除,-skipTrash 當需要刪除的檔案比較大的時候
hadoop dfs -rmr -skipTrash /a
9. 檢視檔案末尾 tail -f ; 一直等待檢視
hadoop dfs -tail /data/data/students.txt
10. 檢視檔案的大小
hadoop dfs -du -h /data
11.hdfs中的檔案都是儲存datanode子節點上,在子節點上的位置
usr/local/soft/hadoop-2.7.6/tmp/dfs/data/current/BP-626788496-192.168.163.110-163187979/current/finalized/subdir0/subdir0
12.安全模式(在安全模式不能進行修改操作,可以檢視)
hadoop dfsadmin -safemode get 用來檢視當前hadoop安全模式的開關狀態
hadoop dfsadmin -safemode enter 命令是開啟安全模式
hadoop dfsadmin -safemode leave 命令是離開安全模式