shell awk实现删除hdfs上某日期之前的文件

hadoop fs -ls /user/zhang  查看hdfs上的文件,awk $6是日期, $8是文件路径
复制代码
#shell脚本
data=$(hadoop fs -ls /user/zhang/data | awk '{print $8}')
data_arr=(${data// / })
for sub_file in ${data_arr[@]}
do
    old_files=$(hadoop fs -ls $sub_file | awk 'BEGIN{ twenty_days_ago=strftime("%F", systime()-20*24*3600) }{ if($6<twenty_days_ago){printf "%s\n", $8} }'
    )
    arr=(${old_files// / })
    for oldfile in ${arr[@]}
    do
        hadoop dfs -rm -r $oldfile
    done
done
复制代码

#如是集群
把hadoop替换为hadoop --cluster z-hadoop
z-hadoop是我的集群的名字
systime() 系统当前日期的秒数
strftime 返回的是2020-06-30
24*3600 一天的秒数

参考:https://www.cnblogs.com/yankang/p/9773996.html

posted @   船长博客  阅读(1392)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
永远相信美好的事情即将发生!
点击右上角即可分享
微信分享提示