爬虫之一:爬补天厂商数据(爬虫)

 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
#coding:utf-8
import re,urllib
 
def gethtml(url):
  page = urllib.urlopen(url)
  html=page.read()
  return html
 
def getlink(html):
 
  link = re.findall(r'<td  align="left" style="padding-left:20px;">(.*?)</td>',html)
  #linklist = re.findall(link,html)
  return link
 
def save(links):
  f=open('360.txt','a')
  for i in links:
    f.write(i+"\n")
    #f.close()
    #print 'ok' 
 
for page in range(11, 200):
  url = "https://butian.360.cn/company/lists/page/" +str(page)
  html = gethtml(url)
  print str(page)+"ye"
  links = getlink(html)
  print links
  save(links)
  

  

posted @   anything good  阅读(515)  评论(0编辑  收藏  举报
编辑推荐:
· DeepSeek 解答了困扰我五年的技术问题
· 为什么说在企业级应用开发中,后端往往是效率杀手?
· 用 C# 插值字符串处理器写一个 sscanf
· Java 中堆内存和栈内存上的数据分布和特点
· 开发中对象命名的一点思考
阅读排行:
· 为什么说在企业级应用开发中,后端往往是效率杀手?
· DeepSeek 解答了困扰我五年的技术问题。时代确实变了!
· 本地部署DeepSeek后,没有好看的交互界面怎么行!
· 趁着过年的时候手搓了一个低代码框架
· 推荐一个DeepSeek 大模型的免费 API 项目!兼容OpenAI接口!
孤 's 博客
点击右上角即可分享
微信分享提示