2016年6月1日
摘要: 静觅 » Python爬虫入门五之URLError异常处理 1.URLError 首先解释下URLError可能产生的原因: 网络无连接,即本机无法上网 连接不到特定的服务器 服务器不存在 在代码中,我们需要用try-except语句来包围并捕获相应的异常。下面是一个例子,先感受下它的风骚 我们利用 阅读全文
posted @ 2016-06-01 16:09 njczy2010 阅读(806) 评论(0) 推荐(0) 编辑
摘要: http://www.liaoxuefeng.com/wiki/0014316089557264a6b348958f449949df42a6d3a2e542c000/001432688314740a0aed473a39f47b09c8c7274c9ab6aee000 urllib提供了一系列用于操作 阅读全文
posted @ 2016-06-01 15:30 njczy2010 阅读(284) 评论(0) 推荐(0) 编辑
摘要: 静觅 » Python爬虫入门四之Urllib库的高级用法 1.设置Headers 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers 的属性。 首先,打开我们的浏览器,调试浏览器F12,我用的是Chrom 阅读全文
posted @ 2016-06-01 15:13 njczy2010 阅读(153) 评论(0) 推荐(0) 编辑
摘要: 静觅 » Python爬虫入门三之Urllib库的基本使用 1.分分钟扒一个网页下来 怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加 JS、CSS,如果把网页比作一个人,那么HTML便是 阅读全文
posted @ 2016-06-01 14:14 njczy2010 阅读(260) 评论(0) 推荐(0) 编辑