摘要: 简单的爬虫 上述代码就会获取该网页的全部的HTML代码。 使用beautifulSoup来解析HTML文档 在网络连接不可靠时 如果我们在urlopen一个不可靠的连接时,也许是因为服务器上不存在这个页面,也许是目标服务器宕机等原因。那我们的爬虫程序就会抛出异常 因此我们需要一个完备的异常处理机制 阅读全文
posted @ 2018-01-08 16:10 郭励之 阅读(345) 评论(0) 推荐(0) 编辑