Python爬虫案例-获取最新的中国行政区域划分

源网页:中国统计局标准 http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2016/

 

打开网页后可以分析出行政区域划分共分为5层

根据传入参数,生成网页地址时需要1-3层的只传本身以及 4层及以后的增加当前省份的前缀。

#生成实际需要解析的页面地址
def geturl(level,url,code):
    if level<4:
        url=url
    else:
        url=code[0:2]+'/'+url
    url='http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2016/'+url
    return url

标签1-5分别不同

#获取需要解析的标签
def getlevelclass(level):
    LevelDict={1:"provincetr",2:"citytr",3:"countytr",4:"towntr",5:"villagetr"}
    return LevelDict[level]

根据网页上的标签以及实际地址去获取所需要的网页内容

#设置头信息
def getheaders():
    headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36'}
    return headers
#获取网页内容
def Get_WebContent(url,level):
    headers=getheaders()
    res=urllib.request.Request(url,None, headers=headers)
    i=1
    while i<4:
        try:
            response=urllib.request.urlopen(res)
            i=100
        except error.URLError as e:  
            print('执行第'+str(i)+'次错误,'+e.reason)
            i=i+1
            time.sleep(10)
    html_content=response.read()
    #将html从gb2312编码转换到utf-8的编码
    html_content = html_content.decode('gb2312', 'ignore').encode('utf-8')
    soup = BeautifulSoup(html_content, 'html.parser', from_encoding='utf-8')
    #获得内容
    levelclass='.'+getlevelclass(level)
    souplist=soup.select(levelclass)
    return souplist

根据输出值需要创建解析第一层与其他层的两种函数。

#conding=utf-8
from bs4 import BeautifulSoup

#用于解析第二层,内容(Code,Pronvince,urls)
def Get_Child(souplist,parentid,level):
    SQLLIST=[]
    for provincesoup in souplist:
        url_tds=provincesoup.find_all('a',href=True)
        a=1
        for td in url_tds:
            if a%2==1:
                code=td.get_text()
                urls=td['href']
            else:
                provience=td.get_text()
                row=(code,provience,parentid,level,urls)
                SQLLIST.append(row)          
            a=a+1 
    return SQLLIST

#用于解析第一层,内容(Pronvince,urls),Code=urls中的数字部分
def Get_Main(souplist,parentid,level):
    SQLLIST=[]
    for provincesoup in souplist:
        url_tds=provincesoup.find_all('a',href=True)
        for td in url_tds:
            provience=td.get_text()
            urls=td['href']
            code=td['href'].replace('.html', '')
            row=(code,provience,parentid,level,urls)
            SQLLIST.append(row)
    return SQLLIST

#实际调用的获取值函数函数
def GetDetail(souplist,level,parentid):
    if level==1:
        SQLLIST=Get_Main(souplist,parentid,level)
    else:
        SQLLIST=Get_Child(souplist,parentid,level)
    return SQLLIST

SQLSERVER表

CREATE TABLE [dbo].[China_Position](
    [ID] [int] IDENTITY(0,1) NOT NULL,
    [Code] [nvarchar](20) NULL,
    [Name] [nvarchar](40) NULL,
    [Name_Short] [nvarchar](20) NULL,
    [ParentID] [int] NULL,
    [Level] [int] NULL,
    [Urls] [nvarchar](200) NULL,
    [IsFinish] [smallint] NOT NULL
)
def DataInsert(ValueList):
    SQLStr="INSERT INTO [dbo].[China_Position]([Code] ,[Name] ,[ParentID],[Level] ,[Urls])  VALUES(%s ,%s ,%d,%d,%s) "
    SqlInsert(SQLStr,ValueList)

#获取待运行的任务
def GetTaskList(level):
    SQLStr="""SELECT v1.[ID]
                ,v1.[Level]+1 as [Level]
                ,v1.[Urls]
                ,v1.Code
            FROM [dbo].[China_Position] v1 with(nolock)
            where [IsFinish]=0 And Level=""" + str(level-1)
    cur=SqlSelect(SQLStr)
    TaskList=[]
    for row in cur:
        rows=(row[0],row[1],row[2],row[3])
        TaskList.append(rows)
    return TaskList
#记录执行成功日志
def RecordLog(ID):
    SQLStr="update [dbo].[China_Position] set IsFinish=1 where ID="+str(ID)
    SqlDelete(SQLStr)

 

 执行最终的代码,获取level1-3层的数据。

for i in range(1,4):
    #获取第几层的待执行任务
    TaskList=GetTaskList(i)
    for CTask in TaskList:
        parentid=CTask[0]
        level=CTask[1]
        url=CTask[2]
        Code=CTask[3]
        #获取真实的网页
        url=geturl(level,url,Code)
        #获取网页内容
        souplist=Get_WebContent(url,level)
        #待插入数据路的列表
        ValueList=GetDetail(souplist,level,parentid)
        #插入数据库
        DataInsert(ValueList)
        #记录成功日志,下次执行时不执行已执行的任务
        RecordLog(parentid)

 

posted @ 2018-03-19 11:24  帆帆Evan  阅读(3011)  评论(1编辑  收藏  举报