Python 增加博客园阅读量

       

  最近偶然到博客园看了一下,距离上次的博客已经过去很多天了,阅读量却少得可怜,对于博客园小白来说感觉不是很友好(主要是心理不平衡),而且有些博客被其他网站不带出处的转载了,它的阅读量却很多。于是灵光一闪,决定写个程序增加一下阅读量。(仅用于学术交流,实际上我就试了一下,没有真正刷过)

 

一、原理

  一般来说,阅读量是通过 ip 识别的,如果一个 ip 已经请求过了,下一次就不再增加阅读量。因此,想要增加阅读量,就需要不同的 ip 进行请求。大致清楚了之后,就可以开始写代码了。

 

二、获取代理 ip

  国内有很多代理 ip 的网站,这里我就推荐 http://31f.cn/http-proxy/ ,我们直接通过爬虫对 ip 和端口号进行获取,用 requests 和 BeautifulSoup ,由于这个网站的结构比较简单,就直接上代码了(记得导包)。

def getIPList(url="http://31f.cn/http-proxy/"):
    proxies = []
    headers = {
        'User_Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36',
    }

    res = requests.get(url, headers=headers)

    soup = BeautifulSoup(res.text, 'lxml')

    ip_list = soup.select("body > div > table.table.table-striped > tr > td:nth-of-type(2)")
    port_list = soup.select("body > div > table.table.table-striped > tr > td:nth-of-type(3)")

    for i in range(len(port_list)):
        proxies.append(ip_list[i].text + ":" + port_list[i].text)

    return proxies

  如果想要获取更多的 ip 可以让这个方法不带参数,直接通过循环对多个页面进行抓取,毕竟大部分代理 ip 的有效期都很短。

 

三、发出请求

  其实在一开始,我是直接对 https://www.cnblogs.com/lyuzt/p/10381107.html 进行请求的,但是我发现用 requests 请求这个网址并不能增加阅读量。因为其他的文件并没有像平时打开网站那样加载,而且增加阅读量应该是由另外的网址进行,所以要好好分析一下,到底是通过什么增加阅读量的。

   从控制台可以看到有一个 put 请求的,域名的开头为 count,这个才是阅读量增加的关键。所以改一下 url 再请求。

  代码如下:

IPs = getIPList_2()
#print(IPs)
for i in range(len(IPs)):
    print("开始请求")
    user_agent = random.choice(user_agents)
    proxy = IPs[i]
    res = requests.get(blog_url, headers={'user_agent': user_agent}, proxies={'http': proxy})
    print(user_agent + '\t' + proxy, end='\t')
    print(res)
    print("请求结束,准备下一次请求......")
    time.sleep(10)

  ps:" user_agents " 这个变量是一个列表,相当于一个 user_agent 池,它的每个元素都是一个 user_agent 。这个就不展示了,可以上网复制。

 

四、总结

  经过测试,博客的阅读量有所增加,但由于大部分代理 ip 的有效期短,基本上只能增加一点点。有些网站可以通过直接请求网址增加阅读量,有一些网站则是通过请求其他的文件增加的,如果觉得去分析有点麻烦可以直接用 selenium 让浏览器自动请求,至于这个方法就不尝试了。

  虽然阅读量少,但我只试了一次,毕竟不能被这个数字左右,要端正心态。只要有技术,这些东西真的无所谓(不带出处转载这个就不能忍了,毕竟侵权了)。最后强调一下,这篇博客重在交流!

  

posted @ 2019-03-02 22:47  大数据的奇妙冒险  阅读(715)  评论(1编辑  收藏  举报