墨者学院-WEB站点访问者身份识别

网络爬虫

  之前用python做过一些爬虫,爬取电影信息,学校管理系统个人信息之类的,在墨者上看到搜索引擎也有爬虫?想想也是,理解起来很简单,一款搜索引擎,要收录的信息太多了,肯定不会靠人工收录,那就会有爬虫脚本,去收录信息,放到搜索引擎的数据库里,之后搜索才会出来东西。

  直接上靶场地址:https://www.mozhe.cn/bug/detail/M3FwbkhWc3pkSkxLaE1KckwyMFVpQT09bW96aGUmozhe

正文

  先看一下靶场的背景

  

   原来是网站不想被搜索引擎收录,对特定的爬虫进行了屏蔽,打开环境之后

   目标里提示了查看robots.txt

  打开后发现,果然是被屏蔽了,百度,搜狗,谷歌的爬虫都被屏蔽了。

  User-agent代表了浏览器标识,当时用对应的搜索引擎访问时,Disallow为 / 表示不允许访问网站根目录,那就等于是所有的都不可以访问了。

  心灰意冷的时候,发现 Bingbot 的 Disallow 为空,说明网站没有对Bing做屏蔽,于是解题思路就大概在这里了,需要伪装成 Bing 的搜索引擎去访问网站,就可以成功访问了!

  burp抓包,修改User-agent,进行伪装

   放包

   果然没有被网站屏蔽,成功访问站点,key在页面最下面

END

  接下来打算深入学一下搜索引擎爬虫的原理,等下一篇再更。

posted @ 2021-12-16 11:32  小小小怪将军  阅读(155)  评论(0编辑  收藏  举报