摘要: 爬虫就是按照一定的规则,去网页上面自动的抓取程序和脚本。 这个过程其实就是用户输入网址之后,经过DNS服务器,找到服务器主机,向服务器发出一个请求,服务器经过解析之后,发送给用户的浏览器 HTML、JS、CSS 等文件,浏览器解析出来,用户便可以看到形形色色的图片了。 因此,用户看到的网页实质是由 阅读全文
posted @ 2018-02-05 16:33 Sakura_柏 阅读(202) 评论(0) 推荐(0) 编辑