php函数之file_get_contents、fopen、curl效率对比

之前有一个页面,因为server放在因为网络隔离而我访问不到的地方,每次更新代码都是发给别人代码包请别人更新,然后会有一个网址是可以对外的。然后使用的人总会报告各种问题,而我作为开发者访问不到server没办法检查问题点,甚至都访问不了系统日志。没办法,只能自己加了一个日志的功能,为了避免被系统禁止访问和总是麻烦别人,把操作日志写在了js文件里,无奈的选择。

然后用访问静态文件的方式访问日志,就有乱码的问题。

<script type="text/javascript" src="..." charset="utf-8"></script>

可以使用上面的代码解决编码问题,然而如此使用肯定不行。日志不是js代码,执行时浏览器报错。

接着想到用前端获取js文件的内容放到div中显示

<div id="jsContent"></div>
<script>
    fetch("./js/test.js")
        .then((response) => {
            if (response.ok) {
                return response.text();
            }
            throw new Error("Network response was not ok.");
        })
        .then((text) => {
            document.getElementById("jsContent").innerText = text;
        })
        .catch((error) => {
            console.error("There has been a problem with your fetch operation:", error);
        });
</script>

 然后就是遇到跨域的问题。也是很难解决。

只好用后端获取日志内容并处理了。

然后就想着使用file_get_contents 获取应该不是什么问题

$content = file_get_contents($url);

结果就是这一段代码执行了2分钟。真是难以想象,浏览器访问10ms以内就完成了。仔细想了下,网络链路不同,毕竟我的位置距离日志server距离更近,而要执行php代码的server距离有几千公里。这么一想,似乎也合理(?)。

看看其它的函数有何不同

$handle = fopen($url, "r");
$content = fread($handle, 65535);
fclose($handle);

执行时间1分钟

$handle = fopen($url, "r");
$content = stream_get_contents($handle);
fclose($handle);

执行时间2分钟

$ch = curl_init($url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
$content = curl_exec($ch);
curl_close($ch);

 执行时间500ms左右。

一时好奇为何会有这样的差别,毕竟之前没留意过,所以在网上检索资料发现了这一段内容:

  • fopen/file_get_contents 每次请求都会重新做DNS查询,并不对 DNS信息进行缓存。但是CURL会自动对DNS信息进行缓存。对同一域名下的网页或者图片的请求只需要一次DNS查询。这大大减少了DNS查询的次数。所以CURL的性能比fopen /file_get_contents 好很多。
  • fopen/file_get_contents 在请求HTTP时,使用的是http_fopen_wrapper,不会keeplive。而curl却可以。这样在多次请求多个链接时,curl效率会好一些。
  • fopen/file_get_contents 函数会受到php.ini文件中allow_url_open选项配置的影响。如果该配置关闭了,则该函数也就失效了。而curl不受该配置的影响。
  • curl 可以模拟多种请求,例如:POST数据,表单提交等,用户可以按照自己的需求来定制请求。而fopen/file_get_contents只能使用get方式获取数据。file_get_contents 获取远程文件时会把结果都存在一个字符串中,而curl存储在数组中
posted @ 2024-06-27 09:49  carol2014  阅读(6)  评论(0编辑  收藏  举报