摘要: 一、今日学习内容 爬虫是模拟人的浏览访问行为,进行数据的批量抓取。当抓取的数据量逐渐增大时,会给被访问的服务器造成很大的压力,甚至有可能崩溃。换句话就是说,服务器是不喜欢有人抓取自己的数据的。那么,网站方面就会针对这些爬虫者,采取一些反爬策略。服务器第一种识别爬虫的方式就是通过检查连接的 usera 阅读全文
posted @ 2021-04-21 21:56 居酿圆子 阅读(28) 评论(0) 推荐(0) 编辑