windows下pip install scrapyd不用新建配置文件

崔庆才的爬虫书上写道:pip install scrapyd安装完毕之后,需要新建一个配置文件/etc/scrapyd/scrapyd.conf,scrapyd在运行的时候会读取此配置文件

这是针对于Linux来说,但没有提到windows要不要新建。于是,我用Everything搜索了一下关键字scrapyd.c,发现在D:\program\Python37\Lib\site-packages\scrapyd目录下存在一个默认的配置文件default_scrapyd.conf

使用Notepad编辑一下,max_proc_per_cpu = 4改为10,即一台主机每个CPU最多运行10个scrapy任务,bind_address = 由127.0.0.1改为0.0.0.0,以使外网可以访问。保存即可

 


__EOF__

本文作者cnhkzyy
本文链接https://www.cnblogs.com/my_captain/p/11029045.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。您的鼓励是博主的最大动力!
posted @   cnhkzyy  阅读(588)  评论(0编辑  收藏  举报
编辑推荐:
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示