Python爬虫学习 - day2 - 站点登陆
利用Python完成简单的站点登陆
最近学习到了爬虫,瞬时觉得很高大上,想取什么就取什么,感觉要上天。这里分享一个简单的登陆抽屉新热榜的教程(因为它不需要验证码,目前还没有学会图像识别。哈哈),供大家学习。
需要的知识点储备
本次爬虫脚本依赖两个模块:requests模块,BeautifulSoup模块。其中requests模块完成url的请求,而BeautifulSoup模块负责解析Html标签。
主要的用法在上一讲已经列出,这里不再赘述。
思路
和爬取图片的思路是相同的,首先我们人工登陆一次,确认每次交互发送接受的数据。
打开首页查看交互信息
在浏览器里访问 http://dig.chouti.com/ 打开控制台,查看网络请求信息,发现在get请求的应答信息中包涵了cookies。
点击登陆后的交互信息
点击登陆后查看网络信息,发现只发送了用户名、密码、以及是否保存密码等参数。
疑问:我们知道为了防止xss攻击,网站都会做一些基础的防护,比如csrf_token等,但是这里并没有看到携带什么token数据,难道是抽屉没有进行防护吗?其实不是的,目前大部分网站都采用的方式是,第一个get请求会发送未认证的cookie,当用户登陆时携带该cookies,服务端对cookies进行认证,如果登陆时没有携带cookies,服务端将会拒绝服务,所以我们要记录第一个get请求的cookies。
点赞后提交的信息
通过查看网络交互信息后发现,点赞后,只是向服务端发送了文章的ID。
流程
根据以上思路得出以下步骤:
- 发送get请求获取页面信息,储存cookies信息
- 向登陆页发送post请求,携带cookies信息
- 由于返回了两次cookies,保险起见,创建一个cookies字典,把多次返回的cookies,一一存储后整体提交。
- 登陆成功后,找到看到的所有文章标签,获取它的linksid
- 发送post请求携带linksid,进行点赞操作
完成的代码
import requests
from bs4 import BeautifulSoup
# get请求cookies
response = requests.get('http://dig.chouti.com/')
get_cookies = response.cookies
# post请求cookies
response = requests.post('http://dig.chouti.com/login',
data={
'phone':8613526773228,
'password': 'aini3845',
'oneMonth': '1',
},
cookies=get_cookies
)
login_cookies = response.cookies
# 组件cookies
all_cookies = {}
all_cookies.update(get_cookies)
all_cookies.update(login_cookies)
# 查询文章列表
response = requests.get('http://dig.chouti.com/',cookies=all_cookies)
soup = BeautifulSoup(response.text,'html.parser')
tag = soup.find(id="content-list")
# 点赞的前缀url
urls = 'http://dig.chouti.com/link/vote'
# 点赞操作
for item in tag.find_all(name='div',attrs={'class':'part2'}):
if item.get('share-linkid'):
link_id = item.get('share-linkid')
response = requests.post(urls+'?linksId=%s' % link_id,cookies=all_cookies)
print(response.text)
所有巧合的是要么是上天注定要么是一个人偷偷的在努力。