上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 23 下一页
摘要: '''scrapy创建并运行1.创建项目,控制台输入scrapy startproject xiachufangs2.跳转到项目 cd xiachufang3.创建爬虫项目,scrapy genspider xiachufang 域名(www开头) ,项目名和文件名不能一样4.修改设置。在setti 阅读全文
posted @ 2021-11-03 17:44 布都御魂 阅读(556) 评论(0) 推荐(0) 编辑
摘要: """author:张鑫date:2021/11/3 15:15"""# 导入模块import pandas as pdimport pymongo# 连接数据库client = pymongo.MongoClient('localhost', 27017)db = client['zhaopin' 阅读全文
posted @ 2021-11-03 16:48 布都御魂 阅读(116) 评论(0) 推荐(0) 编辑
摘要: """author:张鑫date:2021/11/3 11:30https://m.zhipin.com/wapi/zpgeek/mobile/search/joblist.json?query=python%E7%88%AC%E8%99%AB%E5%B7%A5%E7%A8%8B%E5%B8%88& 阅读全文
posted @ 2021-11-03 16:48 布都御魂 阅读(160) 评论(0) 推荐(0) 编辑
摘要: from scrapy import cmdline# baidus:爬虫文件里的namecmdline.execute('scrapy crawl baidus'.split()) 阅读全文
posted @ 2021-11-03 16:46 布都御魂 阅读(295) 评论(0) 推荐(0) 编辑
摘要: """author:张鑫date:2021/10/28 10:48"""import jsonimport reimport timeimport randomimport pandas as pdimport requestsfor i in range(1,20): print(f'****** 阅读全文
posted @ 2021-11-02 11:51 布都御魂 阅读(273) 评论(0) 推荐(0) 编辑
摘要: 把输入法还原 阅读全文
posted @ 2021-11-01 14:42 布都御魂 阅读(164) 评论(0) 推荐(0) 编辑
摘要: 代码没对齐 阅读全文
posted @ 2021-10-27 16:33 布都御魂 阅读(60) 评论(0) 推荐(0) 编辑
摘要: import hashlib import random import time import requests keyword = input('请输入你要查询的内容:') def youdao_trans(keyword): salt = str(int(time.time()) * 1000 阅读全文
posted @ 2021-10-26 11:49 布都御魂 阅读(163) 评论(0) 推荐(0) 编辑
摘要: var i= "320305.131321201"; function e(r) { var o = r.match(/[\uD800-\uDBFF][\uDC00-\uDFFF]/g); if (null o) { var t = r.length; t > 30 && (r = "" + r.s 阅读全文
posted @ 2021-10-25 15:08 布都御魂 阅读(79) 评论(0) 推荐(0) 编辑
摘要: # 把code.js放在同级目录下def tran(): import json import execjs import requests url = "https://fanyi.baidu.com/v2transapi?from=zh&to=en" headers = { "Cookie": 阅读全文
posted @ 2021-10-25 15:07 布都御魂 阅读(363) 评论(0) 推荐(0) 编辑
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 23 下一页