爬虫抓取时的几个小细节-缓存、编码、解析
一:网页更新
我们知道,一般网页中的信息是不断翻新的,这也要求我们定期的去抓这些新信息,可是这个“定期”该怎么理解。也就是多长时间须要
抓一次该页面,事实上这个定期也就是页面缓存时间,在页面的缓存时间内我们再次抓取该网页是没有必要的。反而给人家server造成压力。
就比方说我要抓取博客园首页,首先清空页面缓存。
从Last-Modified到Expires,我们能够看到,博客园的缓存时间是2分钟,并且我还能看到当前的server时间Date,假设我再次
刷新页面的话,这里的Date将会变成下图中 If-Modified-Since,然后发送给server,推断浏览器的缓存有没有过期?
最后server发现If-Modified-Since >= Last-Modifined的时间,server也就返回304了,只是发现这cookie信息真是贼多啊。。。
在实际开发中,假设在知道站点缓存策略的情况下。我们能够让爬虫2min爬一次就好了,当然这些都是能够由数据团队来配置维护了,
好了,以下我们用爬虫模拟一下。
1 using System; 2 using System.Net; 3 4 namespace ConsoleApplication2 5 { 6 public class Program 7 { 8 static void Main(string[] args) 9 { 10 DateTime prevDateTime = DateTime.MinValue; 11 12 for (int i = 0; i < 10; i++) 13 { 14 try 15 { 16 var url = "http://cnblogs.com"; 17 18 var request = (HttpWebRequest)HttpWebRequest.Create(url); 19 20 request.Method = "Head"; 21 22 if (i > 0) 23 { 24 request.IfModifiedSince = prevDateTime; 25 } 26 27 request.Timeout = 3000; 28 29 var response = (HttpWebResponse)request.GetResponse(); 30 31 var code = response.StatusCode; 32 33 //假设server返回状态是200。则觉得网页已更新,记得当时的server时间 34 if (code == HttpStatusCode.OK) 35 { 36 prevDateTime = Convert.ToDateTime(response.Headers[HttpResponseHeader.Date]); 37 } 38 39 Console.WriteLine("当前server的状态码:{0}", code); 40 } 41 catch (WebException ex) 42 { 43 if (ex.Response != null) 44 { 45 var code = (ex.Response as HttpWebResponse).StatusCode; 46 47 Console.WriteLine("当前server的状态码:{0}", code); 48 } 49 } 50 } 51 } 52 } 53 }
二:网页编码的问题
有时候我们已经抓取到网页了,准备去解析的时候,tmd的所有是乱码。真是操蛋,比方以下这样,
也许我们依稀的记得在html的meta中有一个叫做charset的属性,里面记录的就是编码方式。另一个要点就是
response.CharacterSet这个属性中相同也记录了编码方式。以下我们再来试试看。
艹。竟然还是乱码。蛋疼了,这次须要到官网上面去看一看,究竟http头信息里面都交互了些什么。凭什么浏览器能正常显示。
爬虫爬过来的就不行。
查看了http头信息。最终我们知道了,浏览器说我能够解析gzip,deflate,sdch这三种压缩方式,server发送的是gzip压缩。到这里
我们也应该知道了经常使用的web性能优化。
1 using System; 2 using System.Collections.Generic; 3 using System.Linq; 4 using System.Text; 5 using System.Threading; 6 using HtmlAgilityPack; 7 using System.Text.RegularExpressions; 8 using System.Net; 9 using System.IO; 10 using System.IO.Compression; 11 12 namespace ConsoleApplication2 13 { 14 public class Program 15 { 16 static void Main(string[] args) 17 { 18 //var currentUrl = "http://www.mm5mm.com/"; 19 20 var currentUrl = "http://www.sohu.com/"; 21 22 var request = WebRequest.Create(currentUrl) as HttpWebRequest; 23 24 var response = request.GetResponse() as HttpWebResponse; 25 26 var encode = string.Empty; 27 28 if (response.CharacterSet == "ISO-8859-1") 29 encode = "gb2312"; 30 else 31 encode = response.CharacterSet; 32 33 Stream stream; 34 35 if (response.ContentEncoding.ToLower() == "gzip") 36 { 37 stream = new GZipStream(response.GetResponseStream(), CompressionMode.Decompress); 38 } 39 else 40 { 41 stream = response.GetResponseStream(); 42 } 43 44 var sr = new StreamReader(stream, Encoding.GetEncoding(encode)); 45 46 var html = sr.ReadToEnd(); 47 } 48 } 49 }
三:网页解析
既然经过千辛万苦拿到了网页,下一个就要解析了,当然正则匹配是个好方法,毕竟工作量还是比較大的。可能业界也比較推崇
HtmlAgilityPack这个解析工具,可以将Html解析成XML,然后可以用XPath去提取指定的内容。大大提高了开发速度,性能也
不赖,毕竟Agility也就是敏捷的意思。关于XPath的内容。大家看懂W3CSchool的这两张图就OK了。
1 using System; 2 using System.Collections.Generic; 3 using System.Linq; 4 using System.Text; 5 using System.Threading; 6 using HtmlAgilityPack; 7 using System.Text.RegularExpressions; 8 using System.Net; 9 using System.IO; 10 using System.IO.Compression; 11 12 namespace ConsoleApplication2 13 { 14 public class Program 15 { 16 static void Main(string[] args) 17 { 18 //var currentUrl = "http://www.mm5mm.com/"; 19 20 var currentUrl = "http://www.sohu.com/"; 21 22 var request = WebRequest.Create(currentUrl) as HttpWebRequest; 23 24 var response = request.GetResponse() as HttpWebResponse; 25 26 var encode = string.Empty; 27 28 if (response.CharacterSet == "ISO-8859-1") 29 encode = "gb2312"; 30 else 31 encode = response.CharacterSet; 32 33 Stream stream; 34 35 if (response.ContentEncoding.ToLower() == "gzip") 36 { 37 stream = new GZipStream(response.GetResponseStream(), CompressionMode.Decompress); 38 } 39 else 40 { 41 stream = response.GetResponseStream(); 42 } 43 44 var sr = new StreamReader(stream, Encoding.GetEncoding(encode)); 45 46 var html = sr.ReadToEnd(); 47 48 sr.Close(); 49 50 HtmlDocument document = new HtmlDocument(); 51 52 document.LoadHtml(html); 53 54 //提取title 55 var title = document.DocumentNode.SelectSingleNode("//title").InnerText; 56 57 //提取keywords 58 var keywords = document.DocumentNode.SelectSingleNode("//meta[@name='Keywords']").Attributes["content"].Value; 59 } 60 } 61 }
好了。打完收工,睡觉。
。。