摘要: 上面链接爬虫只是能将我们所需的网页下载下来,但是,我们没办法得到我们想要的数据。因此,我们只有URL管理器和URL下载器是不足以组成一个完整的网络爬虫的。我们还需要URL解析器,对数据进行提取。 数据抓取(Scraping)有三种方式:1.正则表达式;2.第三方包——BeautifulSoup;3. 阅读全文
posted @ 2017-05-07 10:09 星影L 阅读(198) 评论(0) 推荐(0) 编辑
摘要: 第一次遇到这个问题时,自己误打误撞解决了。但是,当第二次遇到的时候,却不知道怎么办才好了。所以,百度 Google 了一下,加上自己总结知道了解决的办法。 首先,这是因为用户的权限不够导致的。 使用 ls -l /etc/passwd 查看所有用户及权限。只有可读权限(r),说明用户的权限不够。 因 阅读全文
posted @ 2017-05-07 09:46 星影L 阅读(3016) 评论(0) 推荐(2) 编辑