Linux下删除大量文件效率对比

一个执着于技术的公众号

背景

今天我们来测试一下Linux下删除大量文件的效率。

先创建50万个测试文件

$ for i in $(seq 1 500000); do echo text >> $i.txt;done

1、rm删除

$ time rm -f *
zsh: sure you want to delete all the files in /home/hungerr/test [yn]? y
zsh: argument list too long: rm
rm -f *  3.63s user 0.29s system 98% cpu 3.985 total
  • 由于文件数量过多,rm不起作用。

2、find删除

# time find ./ -type f -exec rm {} \;
find ./ -type f -exec rm {} \;  49.86s user 1032.13s system 41% cpu 43:19.17 total
  • 大概43分钟,我的电脑。。。

3、find with delete


# time find ./ -type f -delete
find ./ -type f -delete  0.43s user 11.21s system 2% cpu 9:13.38 total
  • 用时9分钟

4、rsync删除

# 首先建立空文件夹blanktest
# time rsync -a --delete blanktest/ test/
rsync -a --delete blanktest/ test/  0.59s user 7.86s system 51% cpu 16.418 total
  • 16s,很好很强大。

5、Python删除

import os
import timeit
def main():
    for pathname,dirnames,filenames in os.walk('/home/username/test'):
        for filename in filenames:
            file=os.path.join(pathname,filename)
            os.remove(file)
            
if __name__=='__main__':
t=timeit.Timer('main()','from __main__ import main')
print t.timeit(1)  
1
2
$ python test.py
529.309022903
  • 大概用时9分钟

6、Perl删除

$ time perl -e 'for(<*>){((stat)[9]<(unlink))}'
perl -e 'for(<*>){((stat)[9]<(unlink))}'  1.28s user 7.23s system 50% cpu 16.784 total
  • 16s,这个挺快。

对比:

  • rm:文件数量太多,不可用

  • find with -exec:50万文件耗时43分钟

  • find with -delete:9分钟

  • Perl:16s

  • Python:9分钟

  • rsync with -delete:16s

结论:删除大量 小文件rsync最快,最方便。

  往期精彩  

◆  手把手教你搭建一套OpenStack云平台

◆  利用expect批量修改Linux服务器密码

◆  Linux运维工程师面试问答录

◆  干货 | Linux平台搭建网关服务器

◆  干货 | 理解正向代理与反向代理的区别

◆  硬核科普服务器硬盘组成与基本原理

◆  一文带你速懂虚拟化KVM和XEN

◆  实战 | Hadoo大数据集群搭建

◆  运维工程师心法:6大技能让你告别背锅

如有收获,点个在看,诚挚感谢
posted @ 2020-04-10 23:42  开源Linux  阅读(309)  评论(0编辑  收藏  举报