使用正则表达式,取得点击次数,函数抽离

1. 用正则表达式判定邮箱是否输入正确。

import re
 
 
def validateEmail(email):
    if len(email) > 7:
        if re.match("^.+\\@(\\[?)[a-zA-Z0-9\\-\\.]+\\.([a-zA-Z]{2,3}|[0-9]{1,3})(\\]?)$", email) != None:
            print('good')
            # return 1
    # return 0
    print('exit')
 
validateEmail('zhangshuheng@qq.com')

2. 用正则表达式识别出全部电话号码。

import re  
text="(021)88776543 010-55667890 02584533622 057184720483 837922740"  
m=re.findall(r"\(?0\d{2,3}[) -]?\d{7,8}",text)    
if m:  
    print m  
else:  
    print 'not match'

3. 用正则表达式进行英文分词。re.split('',news)

#不保留匹配项
m = re.split('\d+' , '123fabcd587321cbfdsaa')
print m
print "\n"
#保留匹配项
m = re.split('(\d+)' , '122233abcasf324441cbarwer')
print m

4. 使用正则表达式取得新闻编号

5. 生成点击次数的Request URL

6. 获取点击次数

7. 将456步骤定义成一个函数 def getClickCount(newsUrl):

8. 将获取新闻详情的代码定义成一个函数 def getNewDetail(newsUrl):

import requests
from bs4 import BeautifulSoup
from datetime import datetime
import re
res = requests.get('http://news.gzcc.cn/html/xiaoyuanxinwen/')
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text, 'html.parser')


# 获取新闻点击次数
def getNewsId(url):
    newsId = re.findall(r'\_(.*).html', url)[0][-4:]
    clickUrl = 'http://oa.gzcc.cn/api.php?op=count&id={}&modelid=80'.format(newsId)
    clickRes = requests.get(clickUrl)
    # 利用正则表达式获取新闻点击次数
    clickCount = int(re.search("hits'\).html\('(.*)'\);", clickRes.text).group(1))
    return clickCount



def getNewDetail(newsUrl):
    # 读取新闻细节
    resDescript = requests.get(newsUrl)
    resDescript.encoding = "utf-8"
    soupDescript = BeautifulSoup(resDescript.text, 'html.parser')

    content = soupDescript.select(".show-content")[0].text  # 正文
    info = soupDescript.select(".show-info")[0].text  # info相关内容
    # 第一种方法 分离 message = info.split()
    # 第二种方法 用正则表达式
    time = re.search("发布时间:(.*) \xa0\xa0 \xa0\xa0作者:", info).group(1)
    author = re.search("作者:(.*)\xa0\xa0审核:", info).group(1)
    right = re.search("审核:(.*)\xa0\xa0来源:", info).group(1)
    resource = re.search('来源:(.*)\xa0\xa0\xa0\xa0摄影:', info).group(1)
    video = re.search("摄影:(.*)\xa0\xa0\xa0\xa0点击:", info).group(1)
    count = getNewsId(newsUrl)
    dateTime = datetime.strptime(time, '%Y-%m-%d %H:%M:%S')

    print('标题' + ': ' + title)
    print('概要' + ': ' + description)
    print('链接' + ': ' + a)
    print('正文' + ' :' + content)
    print('发布时间:{0}\n作者:{1}\n审核:{2}\n来源:{3}\n摄影:{4}\n点击次数:{5}'.format(dateTime, author, right, resource, video,count))
    print("\n")



for s in soup.select("li"):
    if len(s.select(".news-list-title"))>0:
        title = s.select(".news-list-title")[0].text #新闻标题
        description = s.select(".news-list-description")[0].text #新闻描述
        a = s.a.attrs["href"] #观看新闻细节
        getNewDetail(a)

 

posted @ 2018-04-11 20:04  201505060365张木贵  阅读(102)  评论(0编辑  收藏  举报