1. 程式人生 > >Hadoop回收站及fs.trash參數詳解

Hadoop回收站及fs.trash參數詳解

Hadoop

前言:

  • Linux系統裏,個人覺得最大的不方便之一就是沒有回收站的概念。rm -rf很容易造成極大的損失。而在Hadoop或者說HDFS裏面,有trash(回收站)的概念,可以使得數據被誤刪以後,還可以找回來。
  • Hadoop裏的trash選項默認是關閉的,所以如果要生效,需要提前將trash選項打開,修改conf裏的core-site.xml即可,下面我們測試下開啟前後的區別:

    1.不啟用trash

    [hadoop@hadoop000 ~]$ hdfs dfs -put test.log /
    [hadoop@hadoop000 ~]$ hdfs dfs -ls /
    Found 3 items
    -rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:49 /test.log
    drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
    drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user
    # 刪除test.log 註意提示
    [hadoop@hadoop000 ~]$ hdfs dfs -rm -r /test.log
    Deleted /test.log
    # 重新查看 發現test.log被刪除
    [hadoop@hadoop000 ~]$ hdfs dfs -ls /
    Found 2 items
    drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
    drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user

    2.啟用trash

[hadoop@hadoop000 hadoop]$ pwd
/opt/software/hadoop-2.8.1/etc/hadoop
# 增加fs.trash參數配置 開啟trash(進程不需重啟)
[hadoop@hadoop000 hadoop]$ vi core-site.xml
    <property>
        <name>fs.trash.interval</name>
        <value>1440</value>
    </property>
    <property>
        <name>fs.trash.checkpoint.interval</name>
        <value>1440</value>
    </property>
# fs.trash.interval是在指在這個回收周期之內,文件實際上是被移動到trash的這個目錄下面,而不是馬上把數據刪除掉。等到回收周期真正到了以後,hdfs才會將數據真正刪除。默認的單位是分鐘,1440分鐘=60*24,剛好是一天;fs.trash.checkpoint.interval則是指垃圾回收的檢查間隔,應該是小於或者等於fs.trash.interval。
# 參考官方文檔:http://hadoop.apache.org/docs/r2.8.4/hadoop-project-dist/hadoop-common/core-default.xml 

[hadoop@hadoop000 ~]$ hdfs dfs -put test.log /
[hadoop@hadoop000 ~]$ hdfs dfs -ls /                           
Found 3 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /test.log
drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user
# 刪除test.log 註意提示的不同
[hadoop@hadoop000 ~]$ hdfs dfs -rm -r /test.log                
18/05/23 16:54:55 INFO fs.TrashPolicyDefault: Moved: ‘hdfs://192.168.6.217:9000/test.log‘ to trash at: hdfs://192.168.6.217:9000/user/hadoop/.Trash/Current/test.log
# 發現刪除的文件在回收站裏
[hadoop@hadoop000 ~]$ hdfs dfs -ls /user/hadoop/.Trash/Current
Found 1 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /user/hadoop/.Trash/Current/test.log
# 恢復誤刪除的文件
[hadoop@hadoop000 ~]$ hdfs dfs -mv /user/hadoop/.Trash/Current/test.log /test.log
[hadoop@hadoop000 ~]$ hdfs dfs -ls /
Found 3 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /test.log
drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user

Hadoop回收站及fs.trash參數詳解