渗透利器-kali工具 (第二章-3) 信息收集之子域名扫描 -Sublist3
本文内容:
- 子域名收集的作用
- 收集子域名的方法
- robots.txt文件的作用
从几个维度来收集子域名。
1,子域名收集的作用:
1.扩大渗透测试范围
2.找到目标站点的突破口
3.业务边界安全
子域名收集盲区:
子域名打开就是404页面、403页面,怎么做,
案例分析:https://nosec.org/home/detail/2011.html
2,收集子域名的方法:
1.在线收集子域名:
谷歌语法:
通过特定站点范围查询子域:site:qq.com
在线爆破:
在线枚举爆破:http://z.zcjun.com/
证书搜索:
基于SSL证书查询子域:https://crt.sh/
DNS搜索:
基于DNS记录查询子域:https://dns.bufferover.run/dns?q=
2.Fuzzdomain工具
使用gitub下载相应的子域发现工具
使用此命令下载:
git clone https://github.com/aboul3la/Sublist3r
安装模块:
sudo pip install -r requirements.txt
枚举目标子域:
python sublist3r.py -d xxx.cn
枚举子域并且显示开放80和443端口的子域
python sublist3r.py -d xxx.cn -p 80,443
枚举目标子域并保存
Python shublist3r.py -d xxx.cn -o xxx.txt
3.用户事件:
通过目标站点用户事件找到子域以及敏感信息
1.历史漏洞:
乌云镜像站:http://www.anquan.us/
2.使用手册、通知:
举例:某学院通知:https://dwz.cn/OOWeYYy6
3,robots.txt文件的作用:
robots协议[爬虫协议、机器人协议等]:
全称是:网络爬虫排除标准,网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。
robots.txt文件的重要性:
robots.txt是搜索引擎蜘蛛访问网站时要查看的第一个文件,并且会根据robots.txt文件的内容来爬行网站。
在某种意义上说,它的一个任务就是指导蜘蛛爬行,减少搜索引擎蜘蛛的工作量。
robots.txt文件的存放位置:
网站根目录下,通过"域名/robots.txt"能正常访问即可。
如:http://xxx.cn/robots.txt
写法:https://baijiahao.baidu.com/s?id=1616368344109675728&wfr=spider&for=pc