文章分类 -  爬虫

摘要:什么是网络爬虫: 通俗理解:爬虫是一个模拟人类请求网站行为的程序。可以自动请求网页、并数据抓取下来,然后使用一定的规则提取有价值的数据。 通用爬虫和聚焦爬虫: 通用爬虫:通用爬虫是搜索引擎抓取系统(百度、谷歌、搜狗等)的重要组成部分。主要是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。 阅读全文
posted @ 2020-11-04 20:50 Dazzling! 阅读(58) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示