狂自私

导航

爬虫初体验-多进程爬取多部小说

主脚本:

#主函数
#爬虫快慢的一个主要因素:网络
#爬下来的小说的顺序依据网址书籍首页目录顺序.
import re
import novel
import requests
import multiprocessing

def action(name_url):
	if len(name_url)<2:
		return;
	my_novel=novel.GrabNovel(novel_name=name_url[0]);
	
	index=1;
	my_novel.get_url(name_url[1]);	#初始化url
	while len(my_novel.all_url) != index:
		my_novel.get_url();
		#print("第"+str(index)+"个:\t"+str(my_novel.url));
		my_novel.get_strHTML();
		my_novel.wirite_title_content();
		
		index+=1;

if __name__=='__main__':	#多进程一定要在主函数中
	num=10;
	#构造[[name.url]];
	name_str=[];#['大主宰.txt','龙王传说.txt','神道丹尊.txt','雪鹰领主.txt','择天记.txt','遮天.txt','全职高手.txt','逍遥小书生.txt','一念永恒.txt','完美世界.txt','异世灵武天下.txt','绝世武神.txt','最强兵王.txt','不朽凡人.txt'];
	url_str=['https://www.qu.la/book/176/','https://www.qu.la/book/13453/','https://www.qu.la/book/13781/','https://www.qu.la/book/5094/','https://www.qu.la/book/168/','https://www.qu.la/book/394/','https://www.qu.la/book/32/','https://www.qu.la/book/23934/','https://www.qu.la/book/16431/','https://www.qu.la/book/14/','https://www.qu.la/book/199/','https://www.qu.la/book/322/','https://www.qu.la/book/4511/','https://www.qu.la/book/18049/']
	name_url=[];
	p=multiprocessing.Pool();		#创建线程池,池的默认大小是此电脑的cpu核心数
	for i in range(0,len(url_str)):
		html = requests.get(url_str[i]).content.decode('UTF-8');
		name=re.findall('(?<=<h1>).*?(?=</h1>)',html);
		if len(name)==0:
			print("网址%s没能获取到小说名."%(url_str[i]));
		else:
			name=name[0]+'.txt';
			name_str.append(name);
		temp=[];
		temp.append(name_str[i]);
		temp.append(url_str[i]);
		name_url.append(temp);
		#action(name_url[i]);
		p.apply_async(action,args=(name_url[i],));	#apply_async是异步非阻塞式的。
													#这里有个小问题,我笔记本的核心数是8核心,我在创建线程池的时候没有指定大小,于是,线程池容量就是8个线程,然而我给出的url多于8个,此时for运行完毕之后会有一共14个线程被加进去,
													#所以我们看到的显示是最开始有8本小说在爬取,而后一阵子之后有新的小说被爬取.
	p.close();	#close必须在join前调用。
	p.join();	#主进程阻塞,等待子进程的退出, join方法要在close或terminate之后使用。
	

  novel类:(将就看):

#小说类
import requests	#第三方模块,需要额外安装	pip3 install requests
import re
class GrabNovel(object):
	#这个小说名字其实还可以从给定的URL中获取到.
	def __init__(self,novel_name):
		self.name=novel_name;
		self.novel_contnet = open(novel_name,mode='w',encoding='UTF-8');
		self.html="";
		self.all_url=[];
		self.url="";
		self.book_url='';
		self.str_len=0;
		self.index=0;
	def __del__(self):
		self.novel_contnet.close();
		print("\t\t\t%s爬取完毕."%(self.name));
	def t(self,str):
		zhong={'零':0,'一':1,'二':2,'三':3,'四':4,'五':5,'六':6,'七':7,'八':8,'九':9};
		danwei={'十':10,'百':100,'千':1000,'万':10000};
		num=0;
		if len(str)==0:
			return 0;
		if len(str)==1:
			if str == '十':
				return 10;
			num=zhong[str];
			return num;
		temp=0;
		if str[0] == '十':
			num=10;
		for i in str:
			if i == '零':
				temp=zhong[i];
			elif i == '一':
				temp=zhong[i];
			elif i == '二':
				temp=zhong[i];
			elif i == '三':
				temp=zhong[i];
			elif i == '四':
				temp=zhong[i];
			elif i == '五':
				temp=zhong[i];
			elif i == '六':
				temp=zhong[i];
			elif i == '七':
				temp=zhong[i];
			elif i == '八':
				temp=zhong[i];
			elif i == '九':
				temp=zhong[i];
			if i == '十':
				temp=temp*danwei[i];
				num+=temp;
			elif i == '百':
				temp=temp*danwei[i];
				num+=temp;
			elif i == '千':
				temp=temp*danwei[i];
				num+=temp;
			elif i == '万':
				temp=temp*danwei[i];
				num+=temp;
		if str[len(str)-1] != '十'and str[len(str)-1] != '百'and str[len(str)-1] != '千'and str[len(str)-1] != '万':
			num+=temp;
		return num;

	#此方法依赖 request,re模块
	#此函数的作用:获取字符串型式的网页源码,以get方式
	#参数就是网址,返回网页源码,对传入的数据类型和内容进行简单检查
	#一次只能传入一个URL
	def get_strHTML(self):
		if type(self.url) != type("http://baidu.com"):
			self.html = "传入的变量类型不是字符串类型";
		if len(self.url) == 0:
			self.html = "传入值为空";
		#http://	https://	ftp://	file://
		if len(re.findall('http://|https://|ftp://|file://|www.',self.url)) != 0:
			self.html = requests.get(self.url).content.decode('UTF-8');
		else:
			self.html = "传入的值不是常见协议头.";

	def sort_t(self,num):
		return num[0];

	#一定要最先调用这个函数初始化url列表.
	def get_url(self,url="https://www.qu.la/book/"):
		if self.url == "":
			self.book_url=url;
			
			#self.html=re.sub('\n',"",self.html);
			#print(self.html);

			#抓取另一本的时候要把11355改掉.注意观察url就知道了.
			book_num=re.findall('(?<=/)\d+?(?=/)',self.book_url);
			regular='(?<=<a style="" href="/book/'+book_num[0]+'/).*?第.*?(?=章)';
			self.url=self.book_url;
			self.get_strHTML();
			temp=re.findall(regular,self.html);	#获取到的列表的内容大概是:5976000.html">第328
			num='';
			my_url='';
			for i in range(0,len(temp)):
				num=(re.findall('(?<=第).*?$',temp[i])[0]);
				try:
					num=int(num);
				except ValueError:
					num=int(self.t(num));
				my_url=(re.findall('.*?(?=">)',temp[i])[0]);
				group=[];
				group.append(num);
				group.append(my_url);
				self.all_url.append(group);
			#排序
			#self.all_url.sort(key=self.sort_t);
			if len(self.all_url) == 0:
				print('网址:%s查询到的章节目录长度为0!'%(self.book_url));
			else:
				print("%s找到%d章节."%(self.name,len(self.all_url)));
			
		else:
			self.url=self.book_url+self.all_url[self.index][1];
			self.index+=1;
		'''
			self.url=url;
		else:
			temp=re.findall('章节列表.*?href=.+?下一章',self.html);
			temp=re.findall('(?<=href=").*?(?=\.)',temp[0]);
			temp=temp[0];										#现在应该是这样的:4669985
			try:
				num=int(temp);
			except ValueError:
				self.novel_contnet.seek(self.str_len * -1,1);
				return;
			else:
				self.url="https://www.qu.la/book/11355/"+temp+'.html';		#爬取的是笔趣阁的(虽然不知道是不是真的笔趣阁)
		'''



	#此函数依赖re模块
	#此函数提取网页源代码中的标题和内容
	#给定参数为字符串.
	#此函数返回列表,第一项是章节名,第二项是章节内容.(标题是<h1></h1>里面的内容,内容则是<div id="content"></div>标签里面的正文),
	#给定参数不是源代码时返回空列表
	#给定参数为空时返回空列表
	#给定参数类型不正确返回空列表
	#此函数不完善,某些内容不能获取到

	
	def wirite_title_content(self):
		if type(self.html) != type("http://baidu.com"):
			self.chapter = [];
		if len(self.html) == 0:
			self.chapter = [];
		#匹配<!DOCTYPE html或者<!doctype html
		if len(re.findall('<![Dd][Oo][Cc][Tt][Yy][Pp][Ee]\s[Hh][Tt][Mm][Ll]\s*?',self.html)) == 0:
			self.chapter = [];
		temp=re.findall('(?<=<h1>).*?(?=</h1>)',self.html);
		if len(temp) != 0:
			self.novel_contnet.write(temp[0]+'\n');
			#print(temp);
		else:
			self.novel_contnet.write('\n');
			print("无标题");
		#将<div id="content"></div>标签里面的内容弄下来而已
		self.html=re.sub('\n',"",self.html);				#这里有个我一直忽略的细节,哪怕我们把多行文本读为一个字符串,在进行匹配的时候很有可能会因为那些换行符失效.我不清楚re.findall函数是怎么实现的,但是没删除\n和删除之后完全是两码事.
		content_div=re.findall('(?<=content">).*?(?=</div>)',self.html);
		if 0 == len(content_div):
			print("\t\t\t\t\t\t\t\t%s\t%s没有获取到内容,正则表达式.\turl:%s."%(self.name,temp,self.url));
		for i in range(0,len(content_div)):
			content_div[i]=re.sub('<br\s/>  ','',content_div[i]);
			content_div[i]=re.sub('    ','\n',content_div[i]);
			content_div[i]=re.sub('</br>.*?</script>','',content_div[i]);
			self.novel_contnet.write(content_div[i]+'\n');
			self.str_len=len(content_div[i]+'\n');

	#只能转数字,传参中包含非数字会错.
	

  中文转阿拉伯数字那个在这里实际上没用处,我忘了去掉了.最开始是想给小说章节排序,然鹅有些顺序着实难搞.就放弃了.

posted on 2019-04-10 10:04  狂自私  阅读(606)  评论(0编辑  收藏  举报