渗透利器-kali工具 (第二章-3) 信息收集之子域名扫描 -Sublist3

本文内容:

  • 子域名收集的作用
  • 收集子域名的方法
  • robots.txt文件的作用

 

从几个维度来收集子域名。

1,子域名收集的作用:
  1.扩大渗透测试范围

  2.找到目标站点的突破口

  3.业务边界安全

  子域名收集盲区:

    子域名打开就是404页面、403页面,怎么做,

    案例分析:https://nosec.org/home/detail/2011.html

2,收集子域名的方法:

  1.在线收集子域名:
    谷歌语法:
      通过特定站点范围查询子域:site:qq.com

    在线爆破:

      在线枚举爆破:http://z.zcjun.com/

    证书搜索:

      基于SSL证书查询子域:https://crt.sh/

    DNS搜索:

      基于DNS记录查询子域:https://dns.bufferover.run/dns?q=

  2.Fuzzdomain工具

    使用gitub下载相应的子域发现工具

    使用此命令下载:

      git clone https://github.com/aboul3la/Sublist3r

    安装模块:

      sudo pip install -r requirements.txt

    枚举目标子域:

      python sublist3r.py -d xxx.cn

    枚举子域并且显示开放80和443端口的子域

      python sublist3r.py -d xxx.cn -p 80,443

    枚举目标子域并保存

      Python shublist3r.py -d xxx.cn -o xxx.txt

  3.用户事件:

    通过目标站点用户事件找到子域以及敏感信息

    1.历史漏洞:

      乌云镜像站:http://www.anquan.us/

    2.使用手册、通知:

      举例:某学院通知:https://dwz.cn/OOWeYYy6

3,robots.txt文件的作用:
  robots协议[爬虫协议、机器人协议等]:

    全称是:网络爬虫排除标准,网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

  robots.txt文件的重要性:

    robots.txt是搜索引擎蜘蛛访问网站时要查看的第一个文件,并且会根据robots.txt文件的内容来爬行网站。

    在某种意义上说,它的一个任务就是指导蜘蛛爬行,减少搜索引擎蜘蛛的工作量。

  robots.txt文件的存放位置:

    网站根目录下,通过"域名/robots.txt"能正常访问即可。

    如:http://xxx.cn/robots.txt

    写法:https://baijiahao.baidu.com/s?id=1616368344109675728&wfr=spider&for=pc

posted @ 2020-05-05 21:28  TheHIde  阅读(2021)  评论(0编辑  收藏  举报