三个爬虫的小栗子

三个爬虫的小栗子

第一个例子 —— 京东商品的爬取案例

import requests


def getHTMLtext(url):
    try:
        r = requests.request('get' ,url )
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return "出现异常"
url = "https://item.jd.com/100005477055.html"
print(getHTMLtext(url))

结果如下:

 

 第二个例子 —— 亚马逊爬虫案例

import requests

url = 'https://www.amazon.cn/dp/B00RY59GJ0?ref_=Oct_DLandingSV2_PC_e9324a46_0&smid=A2EDK7H33M5FFG'

r = requests.request('get',url)

print(r.status_code)

header = {'user-agent': 'Mozilla/5.0'}

r = requests.request('get',url,headers = header)

print(r.headers)

print(r.status_code)

print(r.text)

亚马逊的官网是反爬虫的,因此我们要将user-agent更换

 

 

 第三个例子 —— 百度的post案例

 首先我们要处理百度的url每次搜索百度后百度的链接就会发生变化

假如我们搜索wd https://www.baidu.com/s?wd=wd 百度的链接就会变成这样,因此我们知道百度的链接的关键词是?wd=

那么我们就可以做以下的操作

import requests

def getHTMLtext(url):
    kd = {'wd': 'wd'}
    r = requests.request('get', url, params = kd )
    try:
        r.raise_for_status()
        return r.text
    except:
        return "处理异常"

url = "http://www.baidu.com/s?"


print(getHTMLtext(url))

 

 观察结果,显然我们已经实现了百度的爬取,如果想要查找其他的关键词的话,只需要改变wd=之后的关键词就行了。

posted @ 2019-11-19 17:51  Nlifea  阅读(231)  评论(0编辑  收藏  举报