随笔分类 -  Python爬虫

摘要:本文转载自以下链接: https://scrapy-chs.readthedocs.io/zh_CN/latest/topics/item-pipeline.html https://doc.scrapy.org/en/latest/topics/item-pipeline.html 当Item在S 阅读全文
posted @ 2019-01-21 16:15 哈喽哈喽111111 阅读(959) 评论(0) 推荐(0) 编辑
摘要:本文转载自以下链接: https://scrapy-chs.readthedocs.io/zh_CN/latest/topics/spiders.html https://doc.scrapy.org/en/latest/topics/spiders.html 1、Spiders对spider来说, 阅读全文
posted @ 2019-01-21 15:59 哈喽哈喽111111 阅读(1706) 评论(0) 推荐(0) 编辑
摘要:需要学习的地方: 1.Scrapy框架流程梳理,各文件的用途等 2.在Scrapy框架中使用MongoDB数据库存储数据 3.提取下一页链接,回调自身函数再次获取数据 重点:从当前页获取下一页的链接,传给函数自身继续发起请求 next = response.css('.pager .next a:: 阅读全文
posted @ 2019-01-19 18:18 哈喽哈喽111111 阅读(2435) 评论(0) 推荐(1) 编辑
摘要:本文转载自以下链接:https://scrapy-chs.readthedocs.io/zh_CN/latest/intro/tutorial.html 在本篇教程中,我们假定您已经安装好Scrapy。接下来以 Open Directory Project(dmoz) (dmoz) 为例来讲述爬取。 阅读全文
posted @ 2019-01-19 17:55 哈喽哈喽111111 阅读(411) 评论(0) 推荐(0) 编辑
摘要:本文转载自以下链接:https://scrapy-chs.readthedocs.io/zh_CN/latest/topics/commands.html Scrapy是通过 scrapy 命令行工具进行控制的。 这里我们称之为 “Scrapy tool” 以用来和子命令进行区分。 对于子命令,我们称为 “command” 或者 “Scrapy commands”。 Scrapy tool ... 阅读全文
posted @ 2019-01-19 17:51 哈喽哈喽111111 阅读(265) 评论(0) 推荐(0) 编辑
摘要:官方示例源码<html> <head> <base href='http://example.com/' /> <title>Example website</title> </head> <body> <div id='images'> <a href='image1.html'>Name: My 阅读全文
posted @ 2019-01-19 17:48 哈喽哈喽111111 阅读(402) 评论(0) 推荐(0) 编辑
摘要:本文转载自以下网站:以豌豆荚为例,用 Scrapy 爬取分类多级页面 https://www.makcyun.top/web_scraping_withpython17.html 需要学习的地方: 1.分析网站数据结构 (主要) 2.使用Scrapy框架构造代码参数 3.作图 使用 Scrapy 爬 阅读全文
posted @ 2019-01-16 15:43 哈喽哈喽111111 阅读(2745) 评论(0) 推荐(0) 编辑
摘要:本文转载自以下网站: Python For 和 While 循环爬取不确定页数的网页 https://www.makcyun.top/web_scraping_withpython16.html 需要学习的地方 有两种方法。 第一种方式 使用 For 循环配合 break 语句,尾页的页数设置一个较 阅读全文
posted @ 2019-01-16 15:31 哈喽哈喽111111 阅读(4688) 评论(0) 推荐(0) 编辑
摘要:本文转载自:Python 爬虫的代理 IP 设置方法汇总 https://www.makcyun.top/web_scraping_withpython15.html 需要学习的地方:如何在爬虫中使用代理IP Requests 和 Scrapy 中的代理 IP 设置。 摘要:对于采取了比较强的反爬措 阅读全文
posted @ 2019-01-16 14:50 哈喽哈喽111111 阅读(17760) 评论(0) 推荐(3) 编辑
摘要:本文转载自以下网站: Scrapy 中设置随机 User-Agent 的方法汇总 https://www.makcyun.top/web_scraping_withpython14.html 一行代码搞定 Scrapy 中的随机 UA 设置。 摘要:爬虫过程中的反爬措施非常重要,其中设置随机 Use 阅读全文
posted @ 2019-01-16 14:49 哈喽哈喽111111 阅读(7712) 评论(0) 推荐(0) 编辑
摘要:本文转载自以下网站: 爬虫断了?一招搞定 MongoDB 重复数据 https://www.makcyun.top/web_scraping_withpython13.html 需要学习的地方: MongDB数据库的初步使用 import pymongoclient = pymongo.MongoC 阅读全文
posted @ 2019-01-16 14:31 哈喽哈喽111111 阅读(1290) 评论(0) 推荐(0) 编辑
摘要:本文转载自以下网站: 从 Class 类到 Scrapy https://www.makcyun.top/web_scraping_withpython12.html 普通函数爬虫: https://www.cnblogs.com/sanduzxcvbnm/p/10271493.html 函数类爬虫 阅读全文
posted @ 2019-01-16 14:23 哈喽哈喽111111 阅读(1142) 评论(0) 推荐(0) 编辑
摘要:本文转载自: Scrapy 爬取并分析酷安 6000 款 App,找到良心佳软(抓取篇) https://www.makcyun.top/web_scraping_withpython10.html 需要学习的地方:Scrapy框架的初步使用,使用步骤,框架各部分作用等 摘要: 如今移动互联网越来越 阅读全文
posted @ 2019-01-16 14:13 哈喽哈喽111111 阅读(643) 评论(0) 推荐(0) 编辑
摘要:本文转载自一下网站:Python爬虫(5):Selenium 爬取东方财富网股票财务报表 https://www.makcyun.top/web_scraping_withpython5.html 需要学习的地方: 1.Selenium的安装,配置 2.Selenium的初步使用(自动翻页) 利用S 阅读全文
posted @ 2019-01-16 13:53 哈喽哈喽111111 阅读(27875) 评论(2) 推荐(0) 编辑
摘要:本文转载自以下网站:50 行代码爬取东方财富网上市公司 10 年近百万行财务报表数据 https://www.makcyun.top/web_scraping_withpython6.html 主要学习的地方: 1.分析网站的ajax请求信息 2.构造参数 3.发起请求后处理获得的数据 4.保存表格 阅读全文
posted @ 2019-01-16 13:49 哈喽哈喽111111 阅读(7307) 评论(0) 推荐(0) 编辑
摘要:本文转载自以下链接:https://www.makcyun.top/web_scraping_withpython8.html 目的是万一博主网站无法访问到的话自己需要学习的东西可就不存在了. 本文需要学习的地方,使用三种不同的方式爬取需要登录才能获取数据的网站数据 POST 请求方法:需要在后台获 阅读全文
posted @ 2019-01-16 13:44 哈喽哈喽111111 阅读(27843) 评论(2) 推荐(2) 编辑
摘要:值得学习的地方 1.utc时间转换成普通时间的函数,也就是把2015-06-05T03:54:29.403Z格式的时间转换成2015-06-05 11:54:29 2.使用requrests获取https链接开头的图片数据 之前爬取过干货集中营的照片,地址:https://www.cnblogs.c 阅读全文
posted @ 2019-01-15 13:56 哈喽哈喽111111 阅读(1122) 评论(0) 推荐(0) 编辑
摘要:网址:https://500px.com/seanarcher,seanarcher是一个up主的名字 打开这个网址,会发现有好多图片,具体到每一个图片的url地址 https://500px.com/photo/273383049/galya-by-sean-archer,其中273383049为 阅读全文
posted @ 2019-01-14 16:56 哈喽哈喽111111 阅读(1915) 评论(0) 推荐(0) 编辑
摘要:参考链接:https://www.makcyun.top/web_scraping_withpython2.html csv文件效果: csv文件待优化的地方:加上列名 mysql效果: 问题: 1.不论是csv文件还是mysql表格数据,根据rank字段进行排序,竟然排序的不怎么准确 2.site 阅读全文
posted @ 2019-01-12 16:50 哈喽哈喽111111 阅读(915) 评论(0) 推荐(0) 编辑
摘要:以下内容转载自:https://www.makcyun.top/web_scraping_withpython4.html 文章关于网站使用Ajaxj技术加载页面数据,进行爬取讲的很详细 大致步骤如下: (1)爬取索引页数据 (2)解析索引页面数据 (3)爬取详情页数据 (4)解析详情页数据 (5) 阅读全文
posted @ 2019-01-11 17:57 哈喽哈喽111111 阅读(1293) 评论(0) 推荐(0) 编辑