爬虫抓取糯米网上所有商家数据

前段时间写了 爬取美团商家信息的博客 爬虫抓取美团网上所有商家信息 ,这次说说爬取糯米网,由于某些原因无法提供源代码,但是,代码不是关键,最关键的是思想,懂了思想,代码是很容易写的.

爬虫最重要的是分析请求过程,按照实际请求过程去请求数据.

分析是否需要处理cookie,有些网站比较严格请求某些接口的数据时是需要cookie,获取cookie的链接一般是首页,一般的系统会有一个JsessionId 来保持会话.从你访问一个页面开始服务器就会返回这个JsessionId给你,但是访问某些接口,没有带这个cookie,服务器就不会返回数据给你,  这个可以看看我之前写的 使用python爬取12306上面所有车次数据   ,在爬取12306时就需要处理cookie.

分析网站的请求限制,由于爬虫会增加他们服务器压力,流量浪费,数据损失.所以很多网站都会有请求次数的限制.但是他们数据既然是开放的,就一定可以爬取到.只是付出的代价大小的问题.一般会根据ip来限制请求,请求到一定次数时会有验证码.  比如在爬天眼查的数据时,就遇到这个问题.可以使用代理.现在获取代理很容易,也很便宜.

分析网站的数据是否是通过ajax加载的,返回的数据是否有加密.一般这种情况可以使用无界面的浏览器来请求,浏览器中会自己处理好这些事情.

抓取页面,解析想要数据,这个就比较简单了.页面已经抓取下来了,可以使用一些开源的框架解析页面中数据,也可以使用正则.

下面分析如何抓取糯米网上的数据.

经过分析发现糯米  不需要处理cookie,没有ajax加载的情况,有请求的限制,所以就只需要使用代理就可以了.

我们现在分析要如何才能爬取全部数据.

从链接https://bj.nuomi.com/364/307-1388  可以猜测 bj就是北京, 364是火锅的分类,307-1388就是地区.提前收集这些数据后面爬取的时候直接拼接就可以,方便快捷.

这里我只整理到城市,没有整理到区,所以区和商圈是我们爬取时需要处理,可以先拼接城市和分类然后获取区/县

再遍历区县,获取商圈,再遍历,最后就可以获取团购数据

 

[python] view plain copy
 
  1. # 区/县  
  2. def getArea(cityUrl,cityName,type,subType,subTypeCode):  
  3.     url=cityUrl+"/"+subTypeCode  
  4.     soup=download_soup_waitting(url)  
  5.     try:  
  6.         geo_filter_wrapper=soup.find("div",attrs={"class":"filterDistrict"})  
  7.         J_filter_list=geo_filter_wrapper.find("div",attrs={"class":"district-list-ab"})  
  8.         lis=J_filter_list.findAll("a")  
  9.         for li in lis :  
  10.             # a=li.find("a")  
  11.             url='http:'+li['href']  
  12.             area=li.text  
  13.             getSubArea(url,area,cityName,type,subType)  
  14.     except:  
  15.         getBusiness(url,"","",cityName,type,subType)  
  16.   
  17. # 商圈  
  18. def getSubArea(url,area,cityName,type,subType):  
  19.     soup=download_soup_waitting(url)  
  20.     geo_filter_wrapper=soup.find("div",attrs={"class":"district-sub-list-ab"})  
  21.     if geo_filter_wrapper==None:  
  22.         getBusiness(url,"",area,cityName,type,subType)  
  23.         return  
  24.     lis=geo_filter_wrapper.findAll("a")[1:]  
  25.     for li in lis :  
  26.         # a=li.find("a")  
  27.         url=li['href']  
  28.         subArea=li.text  
  29.         getBusiness("http:"+url,subArea,area,cityName,type,subType)  

现在就来分析团购信息,

可以发现这不是商家,而是团购的商品,说明这些团购后面有很多是同个商家.我们分两层来爬取,因为这一层是有顺序的一个城市一个类别的爬.但是通过团购获取商家信息是没有顺序的.

爬取这一层之后的结果如下.

这一层是无法获取商家的更详细的信息,但是通过这个团购链接就可以获取到更加详细的信息.我们对这些团购链接进行排重,然后进行第二层爬取.

 

这里就是我们需要的数据,但是在实际爬取时发现抓取到的页面没有这个数据.可以猜测这是通过ajax来加载的.

立刻打开firebug,刷新页面

发现果然和我的猜想是一样的这块数据是通过ajax来加载的,查看链接发现,只要获取到dealid就可以拼接链接了.

最后只要只要对抓取的数据进行解析保存就可以了.

分析完全部的过程,写完代码,就可以让程序慢慢跑了,我的这个数据是运行了一个月才有结果.然后对数据进行整理.最终的数据如下:

糯米美食  453792条数据

糯米生活  149002条数据

 

糯米娱乐   74932条数据

 

糯米丽人   73123条数据

 

总的数据  750849 条数据  

时间:20170404

 

https://blog.csdn.net/u013243986/article/details/69062941

posted @ 2018-05-10 13:51  左正  阅读(784)  评论(0编辑  收藏  举报