PHP使用yield 读取超大型目录的方法

之前碰到一个问题,需要处理一个超大型目录,目录有多大呢,有200G大小,大部分人的思路如下, 用日常的递归,基本上读取到的路径数组非常大,会导致超出内存,特此研究了一番:

一般常见的方法如下:

function recursiveScan($dir) {
    $files = [];
    $items = scandir($dir);

    foreach ($items as $item) {
        if ($item == '.' || $item == '..') {
            continue;
        }

        $path = $dir . '/' . $item;

        if (is_dir($path)) {
            $files = array_merge($files, recursiveScan($path)); // 递归读取子目录
        } else {
            $files[] = $path;
        }
    }

    return $files;
}

$directory = '/path/to/directory';
$files = recursiveScan($directory);

foreach ($files as $file) {
    echo $file . PHP_EOL;
}

上面的方法是很常见的做法,读取小文件夹没问题,但是大文件夹会超出内存

解决思路:
1、在这个优化后的函数中,我们将 traverseFolder 函数改为生成器函数,并使用 yield $path; 逐步生成文件路径。这样在调用这个函数时,可以逐步处理文件而不是一次性返回所有文件路径。这种方式可以减少内存占用,并在需要时逐个获取文件路径。
2、不使用递归这种耗资源的方式, 使用array_pop 栈的思路来模拟迭代

改进过的方法如下,非常的节省内存,默认128m的配置即可读取超大目录:

function traverseFolder($folder) {
    $stack = [$folder]; // 使用栈来模拟迭代

    $ext_map = $this->config('ext_map');
    $ext_map_arr = explode("\n", $ext_map);

    while (!empty($stack)) {
        $currentFolder = array_pop($stack);
        $handle = opendir($currentFolder);

        while (($file = readdir($handle)) !== false) {
            if ($file != '.' && $file != '..') {
                $path = $currentFolder . '/' . $file;

                if (is_dir($path)) {
                    $stack[] = $path;
                } else {
             
                    yield $path; // 生成器函数逐步生成文件路径
                }
            }
        }

        closedir($handle);
    }
}

这样就可以轻松读取200G甚至2T的文件夹了,是不是很简单了?

posted @ 2024-05-05 21:56  山上小和尚  阅读(5)  评论(0编辑  收藏  举报