Python爬虫(3),Python3.x

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import urllib.request;
#中文注释

def load_page(url):
	'''
	发送URL请求
	'''
 	 
	user_agent="Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;";
	headers = {'User-Agent':user_agent};	
	req = urllib.request.Request(url,headers=headers);
	response = urllib.request.urlopen(req);
	html =str(response.read(),'utf-8')
	#html = response.read();  这代码出现一种byte字节  详见 http://www.zhihu.com/question/27062410
	print('loading...baidu');
	return html;


def write_to_file(file_name,txt):
	'''
		讲txt文本存入到file_name文件中
	'''
	print("正在存储文件"+str(file_name));
	#1 打开文件
	#w 如果没有这个文件将创建这个文件
	f = open(file_name,'w',encoding='utf-8');
	#2 读写文件
	f.write(str(txt));
	#3 关闭文件
	f.close();
	
	
def tieba_spider(url,begin_page,end_page):
	'''
		贴吧爬虫定义的方法
	'''
	 
	for i in range(int(begin_page) ,int(end_page)+1):	
		pn = 50 * (i - 1 );
		#组成地址
		my_url = url + str(pn);
		print("请求的地址"+str(my_url));
		html = load_page(my_url);
		print("=========第 %d 页=========" %(i));
		#print(html);
		print("=================");
		file_name = str(i) +".html";
		write_to_file(file_name,html);


#main
if __name__=="__main__":
	url = input("请输入url地址");
	print(url);
	begin_page = input("请输入起始页码");
	end_page = input("请输入终止页码");
	#print(begin_page);
	#print(end_page);
	tieba_spider(url,begin_page,end_page);

以地址lol贴吧为例:

url地址

http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0

posted on   愤怒的苹果ext  阅读(14)  评论(0编辑  收藏  举报

编辑推荐:
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示