摘要:
import asyncio import functools # 第三层协程 async def test1(): print('我是test1') await asyncio.sleep(1) print('test1已经睡了1秒') await asyncio.sleep(3) print(' 阅读全文
摘要:
QObject 功能作用 - 对象名称、属性 setObjectName # (唯一名称) 给一个Qt对象设置一个名称 一般这个名称是唯一的,当做对象的ID来使用 objectName() # 获取一个Qt对象的名称 setProperty(属性名称, 值) # 给一个Qt对象动态的添加一个属性与值 阅读全文
摘要:
http://www.chenyongning.com/pyqt5%e6%b1%89%e5%8c%96/ 阅读全文
摘要:
# 直接命令: python -m PyQt5.uic.pyuic test.ui -o test.py # pycharm上添加扩展工具时的参数: -m PyQt5.uic.pyuic $FileName$ -o $FileNameWithoutExtension$.py 阅读全文
摘要:
// 前端js操作csv文件插件用法 插件下载地址:https://github.com/okfn/csv.js/ $('#id_mac_file').change(function () { $('#id_mac_address').parent().next().text(''); $('inp 阅读全文
摘要:
下载爬虫相关包 下载二进制包: https://www.lfd.uci.edu/~gohlke/pythonlibs/ 下载lxml、Twisted、pywin32、Scrapy 安装: 第一步: pip install -i https://pypi.douban.com/simple lxml- 阅读全文
摘要:
把起始URL放到redis中去 from scrapy_redis.spiders import RedisSpider # 继承RedisSpider class ChoutiSpider(RedisSpider): name = 'chouti' allowed_domains = ['chou 阅读全文
摘要:
去重的配置: DUPEFILTER_KEY = 'dupefilter:%(timestamp)s' DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" 调度器配置: SCHEDULER = "scrapy_redis.schedul 阅读全文
摘要:
整个爬虫流程 1、scrapy crawl chouti --nolog 2、找到 SCHEDULER = "scrapy_redis.scheduler.Scheduler" 配置并实例化调试器对象 - 执行Scheduler.from_crawler - 执行Scheduler.from_set 阅读全文
摘要:
scrapy_redis组件去重掉url settings.py # 去重类 # DUPEFILTER_CLASS = 'scrapy_redis.dupefilter.RFPDupeFilter' scrapy_redis组件默认的自带的的类 DUPEFILTER_CLASS = 'xdb.dup 阅读全文