当前位置:   article > 正文

跟我一起学【Hdfs】之——运维篇 删除过期文件_hdfs过期文件清理

hdfs过期文件清理

查看数据步骤 :

  1. 按照时间倒序:
  2. hdfs dfs -ls /tmp | sort -k6,7
  3. 查看非文件夹:
  4. hdfs dfs -ls /tmp ls -l |grep -vn "^d"
  5. 查看文件夹:
  6. hdfs dfs -ls /tmp ls -l |grep "^d"
  7. 删除文件:
  8. hadoop fs -rm -f /tmp/ffc341534d42473fbc9c817f4db7222f
  9. 删除文件夹:
  10. hadoop fs -rm -r /tmp/xxxx

 删除过期数据脚本:

  1. #!/bin/bash
  2. #k认证
  3. source /home/hadoopclient/bigdata_env
  4. kinit -kt /home/hadoopclient/nhioc.keytab nhioc
  5. #删除hdfs的tmp文件夹历史数据
  6. old_version=$(hadoop fs -ls /tmp | awk 'BEGIN{
  7. days_ago=strftime("%F", systime()-5*24*3600) }{ if($6<"days_ago"){printf "%s\n", $8} }')
  8. arr=(${old_version// /})
  9. echo $old_version
  10. for version in ${arr[@]}
  11. do
  12. hadoop fs -rm -f $version
  13. done

清空或删除日志文件:

  1. #查找大于400M的文件 并清空文件
  2. find / -type f -size +400M -name ".out" | xargs -I {} sh -c '> {}'
  3. find / -type f -size +400M -name "*.log" | xargs -I {} sh -c '> {}'
  4. #查找大于400M的文件 并删除文件
  5. find / -type f -size +400M -name "*.log.*" -exec rm -f {} \;
  6. find / -type f -size +400M -name "*.data" -exec rm -f {} \;

 

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
  

闽ICP备14008679号