上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 19 下一页
摘要: 创建项目 scrapy startproject ithome 创建CrawSpider scrapy genspider -t crawl IT ithome.com items.py it.py pipelines.py 执行 scrapy crawl it 阅读全文
posted @ 2018-06-27 21:56 王琳杰 阅读(214) 评论(0) 推荐(0) 编辑
摘要: 搜狗对微信公众平台的公众号和文章做了整合,使用代理爬取。 spider.py 阅读全文
posted @ 2018-06-26 22:30 王琳杰 阅读(2002) 评论(0) 推荐(0) 编辑
摘要: 创建项目 scrapy startproject shebao items.py 创建CrawSpider,使用模版crawl scrapy genspider -t crawl SB www.bjrbj.gov.cn SB.py pipelines.py 执行 scrapy crawl SB 阅读全文
posted @ 2018-06-26 22:19 王琳杰 阅读(441) 评论(0) 推荐(0) 编辑
摘要: 创建项目 items.py zhaopin.py pipelines.py 执行 scrapy crawl zhaopin 阅读全文
posted @ 2018-06-26 01:22 王琳杰 阅读(738) 评论(0) 推荐(0) 编辑
摘要: 直接上代码吧 >>> import time >>> time.time() 1529935923.641123 >>> time.localtime( time.time() ) time.struct_time(tm_year=2018, tm_mon=6, tm_mday=25, tm_hou 阅读全文
posted @ 2018-06-25 23:26 王琳杰 阅读(13530) 评论(0) 推荐(0) 编辑
摘要: 爬取爱笔智能招聘职位 http://aibee.com/cn/joinus.aspx 或者: 阅读全文
posted @ 2018-06-25 23:10 王琳杰 阅读(260) 评论(0) 推荐(0) 编辑
摘要: 爬取知乎Python中文社区信息,https://zhuanlan.zhihu.com/zimei 阅读全文
posted @ 2018-06-25 22:33 王琳杰 阅读(358) 评论(0) 推荐(0) 编辑
摘要: 1 import urllib.request 2 import urllib.parse 3 import requests 4 from urllib.parse import urlencode 5 from pyquery import PyQuery as pq 6 from pymongo import MongoClient 7 import json ... 阅读全文
posted @ 2018-06-25 01:57 王琳杰 阅读(191) 评论(0) 推荐(0) 编辑
摘要: 1、字典(dict) a = {'name': 'wanglinjie', 'age': 26, 'city': 'beijing'} >>> a = {'name': 'wanglinjie', 'age': 26, 'city': 'beijing'} >>> a {'name': 'wangl 阅读全文
posted @ 2018-06-24 20:49 王琳杰 阅读(5238) 评论(0) 推荐(0) 编辑
摘要: Ajax,全称为Asynchronous JavaScript and XML,即异步的JavaScript和XML。它不是一门编程语言,而是利用JavaScript在保证页面不被刷新、页面链接不改变的情况下与服务器交换数据并更新部分网页的技术。 对于传统的网页,如果想更新其内容,那么必须要刷新整个 阅读全文
posted @ 2018-06-24 11:22 王琳杰 阅读(367) 评论(0) 推荐(0) 编辑
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 19 下一页