摘要: css的垂直居中与水平居中 一、 块级盒子水平居中 width 必须有宽度 盒子的左右外边距 auto width: 100px; height: 100px; margin: 0 auto; 二、 行盒/行块盒/文字水平居中 只需要在父级元素使用 text-align: center; 即可 三、 阅读全文
posted @ 2020-06-06 21:42 她的开呀 阅读(178) 评论(0) 推荐(0) 编辑
摘要: css属性值的层叠冲突规则 层叠冲突:同一个样式,多次用到同一个元素,就会发生层叠冲突,需要对样式表有冲突的申明使用层叠规则,确定css属性值 步骤1. 比较重要性,若css属性后面加有 !important ,就表示该属性值的优先级最高,就会使用该值作为当前属性的值(一般不用) color: #0 阅读全文
posted @ 2020-06-06 19:02 她的开呀 阅读(479) 评论(0) 推荐(0) 编辑
摘要: 锚点链接:当点击链接时,可以快速地定位到页面中的某个位置 1. 为需要被定位的元素添加id属性,例如:<p id="p1">我是p1</p> 2. 使用<a>标签定位元素,设置href属性值为 :#需要被定位元素的id,例如:<a href="#p1">p1</a> 代码示例: <a href="# 阅读全文
posted @ 2020-06-06 00:17 她的开呀 阅读(4188) 评论(0) 推荐(0) 编辑
摘要: 代码示例: 在编辑器中输入 div.one#two$*3>p{我是$}*2+a{a标签} ,按Tab键,会生成如下htmL <div class="one" id="two1"> <p>我是1</p> <p>我是2</p> <a href="">a标签</a></div> <div class="o 阅读全文
posted @ 2020-06-05 23:56 她的开呀 阅读(227) 评论(0) 推荐(0) 编辑
摘要: scrapy-redis 分布式爬虫爬取房天下网站所有国内城市的新房和二手房信息 爬取思路 1. 进入 https://www.fang.com/SoufunFamily.htm 页面,解析所有的省份和城市,获取到城市首页链接 2. 通过分析,每个城市的新房都是在首页链接上添加newhouse和ho 阅读全文
posted @ 2020-05-31 09:32 她的开呀 阅读(532) 评论(0) 推荐(0) 编辑
摘要: scrapy中使用selenium+webdriver获取网页源码,爬取简书网站 由于简书中一些数据是通过js渲染出来的,所以通过正常的request请求返回的response源码中没有相关数据, 所以这里选择selenium+webdriver获取网页源码 1. 设置需要爬取的数据 import 阅读全文
posted @ 2020-05-30 01:11 她的开呀 阅读(1249) 评论(0) 推荐(0) 编辑
摘要: scrapy 使用下载器中间件设置随机请求头 1. 在middlewares.py 中设置下载中间件 import random class UseragentDownloaderMiddleware: # 自定义请求头列表 USER_AGENTS = [ "Mozilla/5.0 (Windows 阅读全文
posted @ 2020-05-30 01:03 她的开呀 阅读(541) 评论(0) 推荐(0) 编辑
摘要: Crawl Spider 汽车之家中宝马5系全部图片 yls 2020/5/28 需要使用 LinkExtractor Rule来决定爬虫的具体走向 Crawl Spider介绍 scrapy 爬取文件或者图片简介 *. 为什么选择使用scrapy内置的下载文件的方法: 1. 避免重新下载最近已经下 阅读全文
posted @ 2020-05-29 00:41 她的开呀 阅读(200) 评论(0) 推荐(0) 编辑
摘要: Scrapy 实现需要登录简单网站的爬取(以登录人人网为例) 有些网站登录时需要验证码等操作,登录思想都差不多,知识逻辑复杂一些 scrapy的基本使用参考 scrapy 实现人人网登录两种思路 1. 使用 Post请求 + 登录需要的数据(用户名、密码等),代码如下 import scrapy " 阅读全文
posted @ 2020-05-28 00:22 她的开呀 阅读(914) 评论(0) 推荐(0) 编辑
摘要: Crawl Spider 爬取微信小程序社区信息 yls 2020/5/27 需要使用 LinkExtractor Rule来决定爬虫的具体走向 Crawl Spider介绍 1. 创建项目 scrapy startproject wxapp 2. 创建爬虫 cd wxapp scrapy gens 阅读全文
posted @ 2020-05-27 20:33 她的开呀 阅读(335) 评论(0) 推荐(0) 编辑