lweiser

导航

2019年6月21日 #

python爬虫之scrapy的使用

摘要: 一、Scarpy框架介绍 二、Scarpy的安装 三、Scarpy使用 阅读全文

posted @ 2019-06-21 21:36 lweiser 阅读(276) 评论(0) 推荐(0) 编辑

MongoDB简单使用

摘要: 一、MongoDB简介 1、MongoDB是一个基于分布式文件存储的数据库。由C++语言编写。旨在为WEB应用提供可扩展的高性能数据存储解决方案。 2、MongoDB是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。它支持的数据结构非常松散,是类似json 阅读全文

posted @ 2019-06-21 20:16 lweiser 阅读(202) 评论(0) 推荐(0) 编辑

python爬虫实践——爬取豌豆荚“休闲益智”游戏app

摘要: 1 ''' 2 主页: 3 图标地址、下载次数、大小、详情页地址 4 5 详情页: 6 游戏名、好评率、评论数、小编点评、下载地址、简介、网友评论、1-5张截图链接地址、 7 https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page=1&ctoken=F... 阅读全文

posted @ 2019-06-21 19:21 lweiser 阅读(707) 评论(0) 推荐(0) 编辑

python爬虫之beautifulsoup的使用

摘要: 一、Beautiful Soup的简介 简单来说,Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据。官方解释如下: Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数 阅读全文

posted @ 2019-06-21 00:03 lweiser 阅读(10347) 评论(0) 推荐(0) 编辑

2019年6月18日 #

python爬虫实践——滑动登陆验证

摘要: 1 from selenium import webdriver 2 from selenium.webdriver import ActionChains 3 import time 4 5 driver=webdriver.Chrome() 6 driver.implicitly_wait(10) 7 driver.get('http://www.runoob.com/try... 阅读全文

posted @ 2019-06-18 23:02 lweiser 阅读(1741) 评论(0) 推荐(0) 编辑

python爬虫实践——爬取京东商品信息

摘要: 1 ''' 2 爬取京东商品信息: 3 请求url: 4 https://www.jd.com/ 5 提取商品信息: 6 1.商品详情页 7 2.商品名称 8 3.商品价格 9 4.评价人数 10 5.商品商家 11 ''' 12 from selenium impo... 阅读全文

posted @ 2019-06-18 21:16 lweiser 阅读(11650) 评论(0) 推荐(0) 编辑

python爬虫实践——破解登陆百度

摘要: 1 from selenium import webdriver 2 from selenium.webdriver import ChromeOptions 3 import time 4 r''' 5 步骤: 6 1、打开文件的查看,显示隐藏文件 7 2、找到C:\Users\administortra\AppData\Local\Google\Chrome\U... 阅读全文

posted @ 2019-06-18 21:14 lweiser 阅读(1857) 评论(0) 推荐(1) 编辑

python爬虫实践——自动登录抽屉新热榜

摘要: 1 from selenium import webdriver 2 import time 3 4 driver = webdriver.Chrome(r'D:\BaiduNetdiskDownload\chromedriver_win32\chromedriver.exe') 5 6 # 把窗口转成全屏 7 driver.maximize_window() 8 9 t... 阅读全文

posted @ 2019-06-18 21:11 lweiser 阅读(622) 评论(0) 推荐(0) 编辑

python爬虫之selenium的使用

摘要: 一、selenium简介 1、什么是selenium selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法执行javaScript代码的问题。 2、selenium的用途 (1)、selenium可以驱动浏览器自动执行自定义好的逻辑代码,也就是可以通过代码完全模 阅读全文

posted @ 2019-06-18 14:36 lweiser 阅读(44959) 评论(1) 推荐(1) 编辑

2019年6月17日 #

python爬虫实践——爬取“豆瓣top250”

摘要: 1 ''' 2 主页: 3 https://movie.douban.com/top250 4 GET 5 User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36 6 ... 阅读全文

posted @ 2019-06-17 22:39 lweiser 阅读(1582) 评论(0) 推荐(0) 编辑