整理一下最近做的几个项目。总结几个用到的知识点和关键部分代码,以供大家学习交流。
1、爬虫抓取网页内容信息。可以用System.Net.WebRequest、webclient等类来处理。
2、对于某些动态网页,生成页面信心由javascript动态生成链接信息的。也可以进行分析传值的方式,在post的时候将参数带进去(大多数网站的参数是有规则的)。实在不行也可以使用webbrowser控件,模拟点击。或传值。
以http://www.aslan.com.cn/Code.aspx网站为例。
部分代码如下:
//使用webbrowser访问指定网页。address为网页地址
private void Navigate(WebBrowser web,String address)
{
if (String.IsNullOrEmpty(address)) return;
if (address.Equals("about:blank")) return;
if (!address.StartsWith("http://")) address = "http://" + address;
try
{
web.Navigate(new Uri(address));
}
catch (System.UriFormatException)
{
return;
}
}
由于要抓取网页内容及在加载完毕后提交参数所以需要验证加载完毕即DocumentCompleted。而在实际使用过程当中,发现在一个页面的加载过程中可能会有多次DocumentCompleted,所以在这里采用+1、-1的方式来判断是否加载完毕。
首先在formload中绑定网页加载完毕事件。
private void getCode3webBrowser_Load(object sender, EventArgs e)
{
string address = "http://www.aslan.com.cn/Code.aspx";
this.Navigate(webBrowser1, address);
webBrowser1.Navigated += new WebBrowserNavigatedEventHandler(webBrowser_Navigated);
webBrowser1.DocumentCompleted += new WebBrowserDocumentCompletedEventHandler(webBrowser_DocumentCompleted);
}
并且定义标示count
int count = 0;
然后在每次导航后给标示+1 private void webBrowser_Navigated(object sender, WebBrowserNavigatedEventArgs e)
{
count++;
}
在每次DocumentCompleted中给count-1,最后当count=0时即表示页面加载完毕。可以进行对页面信息的处理等操作了。
private void webBrowser_DocumentCompleted(object sender, WebBrowserDocumentCompletedEventArgs e) { count = count - 1; string eventTarget = "dg_Code$ctl24$ctl"; if (0 == count && isComplete == false && j<=10) { eventTarget = eventTarget + getPage(j); if (!isLastPage(webBrowser1)) { InvokeScriptMethod(webBrowser1, eventTarget, ""); } else { MessageBox.Show("抓取完毕"); } postComplete = true; j++; } else if (postComplete == true) { dealWithByDOM(webBrowser1); postComplete = false; } else if (0 == count && isComplete) { System.Windows.Forms.HtmlDocument htdoc = webBrowser1.Document; for (int i = 0; i < htdoc.All.Count; i++) { if (htdoc.All[i].Name == "btn_search") { htdoc.All[i].InvokeMember("click");//引发”CLICK”事件 isComplete = false; break; } } } }
剩下的就是对html的分析,如何在茫茫多的html代码中找到我们需要的信息呢?在这里我是通过HtmlAgilityPack类来处理html内容提取的。
其中HtimlAgilityPack类是codeplex上的提供的一个类,下载地址http://htmlagilitypack.codeplex.com/用来处理html文件还是非常不错的(个人感觉挺好用)
private void dealWithByDOM(WebBrowser webBro)
{
HtmlAgilityPack.HtmlDocument htmlDoc = new HtmlAgilityPack.HtmlDocument();
htmlDoc.LoadHtml(webBro.DocumentText);
HtmlNode Node1 = htmlDoc.GetElementbyId("dg_Code_ctl03_Label5");
HtmlNode Node2 = htmlDoc.GetElementbyId("dg_Code_ctl03_Label6");
HtmlNode Node3 = htmlDoc.GetElementbyId("dg_Code_ctl03_Label7");
HtmlNode Node4 = htmlDoc.GetElementbyId("dg_Code_ctl03_Label8");
HtmlNode Node5 = htmlDoc.GetElementbyId("dg_Code_ctl03_Label9");
DataRow dr = dt_finallyResult.NewRow();
dr["三字码"] = Node1.InnerText;
dr["城市码"] = Node2.InnerText;
dr["城市中文名"] = Node3.InnerText;
dr["城市英文名"] = Node4.InnerText;
dr["国家"] = Node5.InnerText;
dt_finallyResult.Rows.Add(dr);
dataGridView1.DataSource = dt_finallyResult;
}
以上就是该程序的部分实现代码。最后效果图如下:(不过不到万不得已最好不要使用webbrowser的方式做爬虫,它的速度太慢了,我要抓取的信息只有286页,可是花了我将近10分钟的时间)
下面是程序运行效果图:(为了展示方便,左边为webBrowser控件导航到目标网站的结果,右边dataGridview为抓取后经过提取的所需信息。)
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 25岁的心里话
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
2018-07-23 (c#) 销毁资源和释放内存
2018-07-23 C#中 ThreadStart和ParameterizedThreadStart区别
2018-07-23 MongoDB的C#封装类
2018-07-23 mongo DB for C#
2018-07-23 C#操作MongoDB
2018-07-23 关于Mongodb的全面总结
2018-07-23 Mongodb下载、安装、配置与使用