PHP使用yield 读取超大型目录的方法
之前碰到一个问题,需要处理一个超大型目录,目录有多大呢,有200G大小,大部分人的思路如下, 用日常的递归,基本上读取到的路径数组非常大,会导致超出内存,特此研究了一番:
一般常见的方法如下:
function recursiveScan($dir) {
$files = [];
$items = scandir($dir);
foreach ($items as $item) {
if ($item == '.' || $item == '..') {
continue;
}
$path = $dir . '/' . $item;
if (is_dir($path)) {
$files = array_merge($files, recursiveScan($path)); // 递归读取子目录
} else {
$files[] = $path;
}
}
return $files;
}
$directory = '/path/to/directory';
$files = recursiveScan($directory);
foreach ($files as $file) {
echo $file . PHP_EOL;
}
上面的方法是很常见的做法,读取小文件夹没问题,但是大文件夹会超出内存
解决思路:
1、在这个优化后的函数中,我们将 traverseFolder 函数改为生成器函数,并使用 yield $path; 逐步生成文件路径。这样在调用这个函数时,可以逐步处理文件而不是一次性返回所有文件路径。这种方式可以减少内存占用,并在需要时逐个获取文件路径。
2、不使用递归这种耗资源的方式, 使用array_pop 栈的思路来模拟迭代
改进过的方法如下,非常的节省内存,默认128m的配置即可读取超大目录:
function traverseFolder($folder) {
$stack = [$folder]; // 使用栈来模拟迭代
$ext_map = $this->config('ext_map');
$ext_map_arr = explode("\n", $ext_map);
while (!empty($stack)) {
$currentFolder = array_pop($stack);
$handle = opendir($currentFolder);
while (($file = readdir($handle)) !== false) {
if ($file != '.' && $file != '..') {
$path = $currentFolder . '/' . $file;
if (is_dir($path)) {
$stack[] = $path;
} else {
yield $path; // 生成器函数逐步生成文件路径
}
}
}
closedir($handle);
}
}
这样就可以轻松读取200G甚至2T的文件夹了,是不是很简单了?