2018年1月3日

十三 web爬虫讲解2—Scrapy框架爬虫—Scrapy爬取百度新闻,爬取Ajax动态生成的信息

摘要: crapy爬取百度新闻,爬取Ajax动态生成的信息,抓取百度新闻首页的新闻rul地址 有多网站,当你浏览器访问时看到的信息,在html源文件里却找不到,由得信息还是滚动条滚动到对应的位置后才显示信息,那么这种一般都是 js 的 Ajax 动态请求生成的信息 我们以百度新闻为列: 1、分析网站 首先我 阅读全文

posted @ 2018-01-03 10:41 快乐糖果屋 阅读(524) 评论(0) 推荐(0) 编辑

十二 web爬虫讲解2—Scrapy框架爬虫—Scrapy模拟浏览器登录—获取Scrapy框架Cookies

摘要: 模拟浏览器登录 start_requests()方法,可以返回一个请求给爬虫的起始网站,这个返回的请求相当于start_urls,start_requests()返回的请求会替代start_urls里的请求 Request()get请求,可以设置,url、cookie、回调函数 FormReques 阅读全文

posted @ 2018-01-03 10:40 快乐糖果屋 阅读(925) 评论(0) 推荐(0) 编辑

十一 web爬虫讲解2—Scrapy框架爬虫—Scrapy使用

摘要: xpath表达式 //x 表示向下查找n层指定标签,如://div 表示查找所有div标签 /x 表示向下查找一层指定的标签 /@x 表示查找指定属性的值,可以连缀如:@id @src [@属性名称="属性值"]表示查找指定属性等于指定值的标签,可以连缀 ,如查找class名称等于指定名称的标签 / 阅读全文

posted @ 2018-01-03 10:39 快乐糖果屋 阅读(317) 评论(0) 推荐(0) 编辑

十 web爬虫讲解2—Scrapy框架爬虫—Scrapy安装—Scrapy指令

摘要: Scrapy框架安装 1、首先,终端执行命令升级pip: python -m pip install --upgrade pip2、安装,wheel(建议网络安装) pip install wheel3、安装,lxml(建议下载安装)4、安装,Twisted(建议下载安装)5、安装,Scrapy(建 阅读全文

posted @ 2018-01-03 10:37 快乐糖果屋 阅读(330) 评论(0) 推荐(0) 编辑

九 web爬虫讲解2—urllib库爬虫—实战爬取搜狗微信公众号—抓包软件安装Fiddler4讲解

摘要: 封装模块 实战爬取搜狗微信公众号 抓包教程 首先安装Fiddler4 软件界面说明 清除请求 设置抓包浏览器 这样设置好后,这个浏览器访问的网址就会在抓包软件里看到信息了 设置抓取https协议的网站 导出证书到桌面 将证书安装到浏览器 可以看到软件已经获取到https网站了 疑难问题解决: 有些可 阅读全文

posted @ 2018-01-03 10:32 快乐糖果屋 阅读(379) 评论(0) 推荐(0) 编辑

八 web爬虫讲解2—urllib库爬虫—ip代理—用户代理和ip代理结合应用

摘要: 使用IP代理 ProxyHandler()格式化IP,第一个参数,请求目标可能是http或者https,对应设置build_opener()初始化IPinstall_opener()将代理IP设置成全局,当使用urlopen()请求时自动使用代理IP ip代理池构建一 适合IP存活时间长,稳定性好的 阅读全文

posted @ 2018-01-03 10:30 快乐糖果屋 阅读(318) 评论(0) 推荐(0) 编辑

七 web爬虫讲解2—urllib库爬虫—状态吗—异常处理—浏览器伪装技术、设置用户代理

摘要: 如果爬虫没有异常处理,那么爬行中一旦出现错误,程序将崩溃停止工作,有异常处理即使出现错误也能继续执行下去 1.常见状态吗 301:重定向到新的URL,永久性302:重定向到临时URL,非永久性304:请求的资源未更新400:非法请求401:请求未经授权403:禁止访问404:没找到对应页面500:服 阅读全文

posted @ 2018-01-03 10:28 快乐糖果屋 阅读(326) 评论(0) 推荐(0) 编辑

六 web爬虫讲解2—urllib库爬虫—基础使用—超时设置—自动模拟http请求

摘要: 利用python系统自带的urllib库写简单爬虫 urlopen()获取一个URL的html源码read()读出html源码内容decode("utf-8")将字节转化成字符串 正则获取页面指定内容 urlretrieve()将网络文件下载保存到本地,参数1网络文件URL,参数2保存路径 urlc 阅读全文

posted @ 2018-01-03 10:25 快乐糖果屋 阅读(1881) 评论(0) 推荐(0) 编辑

五 web爬虫,scrapy模块,解决重复ur——自动递归url

摘要: 一般抓取过的url不重复抓取,那么就需要记录url,判断当前URL如果在记录里说明已经抓取过了,如果不存在说明没抓取过 记录url可以是缓存,或者数据库,如果保存数据库按照以下方式: id URL加密(建索引以便查询) 原始URL 保存URL表里应该至少有以上3个字段1、URL加密(建索引以便查询) 阅读全文

posted @ 2018-01-03 10:23 快乐糖果屋 阅读(1228) 评论(0) 推荐(0) 编辑

四 web爬虫,scrapy模块标签选择器下载图片,以及正则匹配标签

摘要: 标签选择器对象 HtmlXPathSelector()创建标签选择器对象,参数接收response回调的html对象需要导入模块:from scrapy.selector import HtmlXPathSelector select()标签选择器方法,是HtmlXPathSelector里的一个方 阅读全文

posted @ 2018-01-03 10:22 快乐糖果屋 阅读(616) 评论(0) 推荐(0) 编辑

导航