使用正则表达式,取得点击次数,函数抽离
1. 用正则表达式判定邮箱是否输入正确。
1 2 3 4 5 6 7 8 9 | import re def validateEmail(email): if len (email) > 7 : if re.match( "^.+\\@(\\[?)[a-zA-Z0-9\\-\\.]+\\.([a-zA-Z]{2,3}|[0-9]{1,3})(\\]?)$" , email) ! = None : print ( 'good' ) # return 1 # return 0 print ( 'exit' ) validateEmail( '282649417@qq.com' ) |
2. 用正则表达式识别出全部电话号码。
1 2 3 | tel = '版权所有:广州商学院 地址:广州市黄埔区九龙大道206号 学校办公室:020-82876130 招生电话:020-82872773' a = re.search( '(\d{3,4})-(\d{6,8})' ,tel).group( 2 ) print (a) |
3. 用正则表达式进行英文分词。re.split('',news)
1 2 | str = '''Lee is on a five-day working visit to China starting Sunday, his second visit to China since September. During the visit, he will attend the Boao Forum for Asia's annual conference in Hainan. It will be his first time at the conference and he will deliver a speech at the opening session of the forum.''' print (re.split( "[\s,.?!]+" , str )) |
4. 使用正则表达式取得新闻编号。
1 2 3 4 | q = 'http://news.gzcc.cn/html/2017/xiaoyuanxinwen_0925/8249.html' print (re.match( 'http://news.gzcc.cn/html/2017/xiaoyuanxinwen_(.*).html' ,q).group( 1 ).split( '/' )[ - 1 ]) print (re.search( '\_(.*).html' ,q).group( 1 ).split( '/' )[ - 1 ]) print (re.findall( '\_(.*).html' ,q)[ - 1 ].split( '/' )[ - 1 ]) |
5. 生成点击次数的Request URL
1 2 3 4 | url = 'http://news.gzcc.cn/html/2018/xiaoyuanxinwen_0404/9183.html' a = re.match( 'http://news.gzcc.cn/html/2018/xiaoyuanxinwen_0404/(.*).html' ,url).group( 1 ) srac = 'http://oa.gzcc.cn/api.php?op=count&id={}&modelid=80' . format (a) print (srac) |
6. 获取点击次数
1 2 3 4 | resc = requests.get(clickUrl) num = re.search( ".html\('(\d*)'\)" ,resc.text).group( 1 ) print (num) getClickCount( "http://news.gzcc.cn/html/2018/xiaoyuanxinwen_0404/9183.html" ); |
7. 将456步骤定义成一个函数 def getClickCount(newsUrl):
8. 将获取新闻详情的代码定义成一个函数 def getNewDetail(newsUrl):
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 | import requests import re from bs4 import BeautifulSoup from datetime import datetime def getClickCount(newUrl): newId = re.search( '\_(.*).html' ,newUrl).group( 1 ).split( '/' )[ 1 ] clickUrl = 'http://oa.gzcc.cn/api.php?op=count&id={}&modelid=80' . format (newId) return ( int (requests.get(clickUrl).text.split( '.html' )[ - 1 ].lstrip( "('" ).rstrip( "');" ))) def getNewDetail(url): res1 = requests.get(a) res1.encoding = 'utf-8' soup1 = BeautifulSoup(res1.text, 'html.parser' ) soup1.select( '#content' )[ 0 ].text # 正文 info = soup1.select( '.show-info' )[ 0 ].text d = info.lstrip( '发布时间:' )[: 19 ] #发布日期和时间 dt = datetime.strptime(d, '%Y-%m-%d %H:%M:%S' ) au = info[info.find( '作者:' ):].split()[ 0 ].lstrip( '作者:' ) #作者 clickCount = getClickCount(a) newUrl = "http://news.gzcc.cn/html/2017/xiaoyuanxinwen_0925/8249.html" newId = re.search( '\_(.*).html' , newUrl).group( 1 ).split( '/' )[ 1 ] clickUrl = 'http://oa.gzcc.cn/api.php?op=count&id={}&modelid=80' . format (newId) print (clickUrl, '\n' ,getClickCount(newUrl)) url = 'http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(url) res.encoding = "utf-8" soup = BeautifulSoup(res.text, "html.parser" ) for news in soup.select( "li" ): if len (news.select( ".news-list-title" )) > 0 : t = news.select( '.news-list-title' )[ 0 ].text a = news.select( 'a' )[ 0 ].attrs[ 'href' ] # 新闻链接 print (t,a, '\n' ) getNewDetail(a) break |
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux glibc自带哈希表的用例及性能测试
· 深入理解 Mybatis 分库分表执行原理
· 如何打造一个高并发系统?
· .NET Core GC压缩(compact_phase)底层原理浅谈
· 现代计算机视觉入门之:什么是图片特征编码
· 手把手教你在本地部署DeepSeek R1,搭建web-ui ,建议收藏!
· Spring AI + Ollama 实现 deepseek-r1 的API服务和调用
· 数据库服务器 SQL Server 版本升级公告
· 程序员常用高效实用工具推荐,办公效率提升利器!
· C#/.NET/.NET Core技术前沿周刊 | 第 23 期(2025年1.20-1.26)