PHPExcel导出数据量过大处理
今天使用PHPExce插件导不出数据,发现是数据量过大的原因,这里只做简单的处理。
1、导出超时处理:在执行页面添加:set_time_limit(0);
2、内存溢出:在执行页面添加:ini_set("memory_limit", "1024M");
简单来说就是在执行页面添加了以下两行代码:
set_time_limit(0);
ini_set("memory_limit", "1024M");
我这是1万多的数据处理,如数据量更大,可以参考:https://blog.csdn.net/Drug_/article/details/78716358
的处理方式
3. 如果接口报502错误
zb@zb-computer:/usr/local/php/etc$ pwd
/usr/local/php/etc
php-fpm.conf
request_terminate_timeout = 1000 修改最大执行极限时间
4.nginx 最大执行时间,如果没配置好,也会报504 nginx.conf
zb@zb-computer:/usr/local/nginx/conf$ pwd
/usr/local/nginx/conf
fastcgi_connect_timeout 1200;
fastcgi_send_timeout 1200;
fastcgi_read_timeout 1200;
-----主要应该是后面两个参数,设置为20分钟。当然我没做把第一个参数改小的测试,条件允许的话可测试下。
- 在处理中,如果不是一直刷新后报错下载不了,数据量小200条都可以导出,但到2000 导出不了,而且立马报错,可能是引入但phpExcel版本低但问题!
- 不一定都是php-fpm nginx 底层配置的问题,也可能是代码的问题!
相信坚持的力量,日复一日的习惯.
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 解答了困扰我五年的技术问题
· 为什么说在企业级应用开发中,后端往往是效率杀手?
· 用 C# 插值字符串处理器写一个 sscanf
· Java 中堆内存和栈内存上的数据分布和特点
· 开发中对象命名的一点思考
· 为什么说在企业级应用开发中,后端往往是效率杀手?
· DeepSeek 解答了困扰我五年的技术问题。时代确实变了!
· 本地部署DeepSeek后,没有好看的交互界面怎么行!
· 趁着过年的时候手搓了一个低代码框架
· 推荐一个DeepSeek 大模型的免费 API 项目!兼容OpenAI接口!
2018-03-05 linux环境下,接着lnmp,安装redis