摘要: 1,session采用的是在服务器端保持状态的方案。而cookie采用的是在客户端保持状态的方案。 2,由于采用服务器端保持状态的方案在客户端也需要保持一个标识,因而session机制可能需要 coolie的机制来达到标识的目的,但实际上有其他方法。 coolie机制是通过扩展HTTP协议来实现的, 阅读全文
posted @ 2019-01-24 21:02 joson01 阅读(86) 评论(0) 推荐(0) 编辑
摘要: 1,tornado:是python编写的web服务器兼容web应用的框架。 tornado的优势 (1),轻量级的web框架 (2),他提供了一种带有异步功能并允许他扩展到大量开放连接的简单的web框架。 (3),出色的坑负载能力 (4),优异的处理性能,不依赖多线程/多进程。 (5),wsgi全栈 阅读全文
posted @ 2019-01-24 20:37 joson01 阅读(1136) 评论(0) 推荐(0) 编辑
摘要: 总结:json.load() --读到内存 json.dump() --写入到文件 json.loads() --把字符串转化成列表,字典 json.dumps() --把列表,字典,元组转化成字符串 小编知道可能很多人不会仔细往下看,但是作为技术人员建议仔细的看下吧,这个案例我好不容易弄出来呢!! 阅读全文
posted @ 2018-12-29 21:03 joson01 阅读(287) 评论(0) 推荐(0) 编辑
摘要: 1,腾讯岗位招聘 # -*- coding: utf-8 -*- import scrapy from lxml import etree from ..items import TencentTtem class TxSpider(scrapy.Spider): name = 'tx' allow 阅读全文
posted @ 2018-12-28 20:14 joson01 阅读(210) 评论(0) 推荐(0) 编辑
摘要: 恢复内容开始 恢复内容结束 scrapy的运作流程 1,引擎:hi,spider,你要处理哪一个网站? spider:老大我要处理XXXX.com。 1,引擎:你把第一个需要处理的url交给我吧。 spider:给你,第一个url是xxx.com 1,引擎:hi,调度器,我这儿有个request请求 阅读全文
posted @ 2018-12-28 16:12 joson01 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 一:环境搭建--scrapy pip install scrapy #然后流程 1,scrapy startproject 项目名称 2,scrapy genspider example example.com 小名称 网址(如:baidu.com) 3, 用python设置好相关的配置 4,cd项 阅读全文
posted @ 2018-12-28 16:06 joson01 阅读(67) 评论(0) 推荐(0) 编辑