摘要: #执行这个爬虫文件 scrapy crawl spider51job 阅读全文
posted @ 2019-10-01 22:26 天天见和 阅读(551) 评论(0) 推荐(0) 编辑
摘要: import requestsfrom lxml import etree# http://www.dajiangtai.com/login/check.dopost_url='http://www.dajiangtai.com/login/check.do'mysession=requests.S 阅读全文
posted @ 2019-10-01 20:48 天天见和 阅读(102) 评论(0) 推荐(0) 编辑
摘要: import requests#通过cookies登录post_url='http://pythonscraping.com/pages/cookies/welcome.php'userdata={"username":"zhangsan","password":"password"}post_re 阅读全文
posted @ 2019-10-01 20:02 天天见和 阅读(832) 评论(0) 推荐(0) 编辑