返回顶部

信息收集汇总

题记

       总结一下信息收集的姿势,因为信息收集有重叠的部分,有点不太好分类,所以按照下方来分,可能有些杂乱。

检测一个站点的流程

1、了解网站一个架构

       http://scan.top15.cn/web/

2、判断是什么框架

3、判断CMS

       1 如果不是开源的,可尝试挖掘。

       有代码白盒审计,无代码黑盒审计。

       2 如果开源的CMS,二次开发的可以手工挖掘漏洞。

4、判断静态还是伪静态

       例如5.html结尾,如果删掉.html页面还能访问的话就是伪静态。

5、判断使用的系统

       1 插件也可识别系统。

       2 Bp抓包看响应包,有的返回服务器表示例如iis7.5。

       3 改大小写看是否报错。

       Linux改大小写报错,windows可识别。下图以centos为例。

6、判断真实ip

       1、web程序爆出真实ip phpinfo;

       2、历史ip 如果找出真实ip,把host文件改了;

       3、DDOS 打死cdn在ping会返回真实ip;

       4、邮件暴露真实ip;

       5、子域名;

       6、比如它有一个app,安装抓包发送的请求,可能是域名的子域名或者直接ip。

7、端口扫描检测

       Sodan插件可简要罗列出端口,如果仅是找漏洞可用它。

       有了浏览器插件我就不怎么用nmap了。

       Nmap -A -Pn -sS -p 1-65535 ip -v

8、语法查询

       1 谷歌语法

       filetype:txt 密码 | 账号

       filetype:doc 学号

       ……

       可以自由构造

       参考这篇博客: https://blog.csdn.net/huweiliyi/article/details/105442118

       Google Hacking语法: https://gbhackers.com/

       2 fofa搜索

       Fofa语法:https://www.cnblogs.com/sunny11/p/14388508.html

9、子域名收集

       1 域传送漏洞

       2 域名爆破(好像和李姐姐的扫描器类似)

       Oneforall

       http://phpinfo.me/domain

10、C段

       1 搜索C段

       使用脚本对得到的子域名进行C段扫描,扩大攻击面。

       脚本代码(在同一目录下创建domains.txt导入子域名)

Python

#coding:gb2312

import os

import re

import Queue

import threading

 

q=Queue.Queue()

 

class getCSgement:

#初始化

def __init__(self,url):

if "http" in url:

pattern = re.compile(r'(?<=//).+(?<!/)')

match = pattern.search(url)

try:

url = match.group()

except:

print "正则error"

self.url = url

else:

self.url = url

 

def cSgment(self):

lookStr = self.nsLookUp(self.url)

listIp = self.fetIp(lookStr)

 

if len(listIp)==0:

return "networkbad"

 

if self.checkCdn(listIp):

strIp = ""

for i in listIp:

strIp = strIp + i + ","

return strIp[:-1] + " (可能使用了cdn)"

 

return self.makeCSeg(listIp)

 

#使用nslookup命令进行查询

def nsLookUp(self,url):

cmd = 'nslookup %s 8.8.8.8' % url

handle = os.popen(cmd , 'r')

result = handle.read()

return result

 

#获取nslookup命令查询的结果里面的ip

def fetIp(self,result):

ips = re.findall(r'(?<![\.\d])(?:\d{1,3}\.){3}\d{1,3}(?![\.\d])', result)

if '8.8.8.8' in ips:

ips.remove('8.8.8.8')

return ips

 

#检测是否使用cdn

def checkCdn(self,ips):

if len(ips)>1:

return True

return False

 

#生成c段

def makeCSeg(self,ips):

if not self.checkCdn(ips):

ipStr = "".join(ips)

end = ipStr.rfind(".")

return ipStr[0:end+1] + "1-" + ipStr[0:end+1] + "254"

 

#开始扫描

def scaner():

while not q.empty():

url=q.get()

t = getCSgement(url)

result = t.cSgment()

 

if not "networkbad" in result:

print url + ":" + result

if not "cdn" in result:

writeFile("result.txt", result + "\n")

else:

t = getCSgement(url)

result2 = t.cSgment()

if not "networkbad" in result2:

print url + ":" + result2

if not "cdn" in result2:

writeFile("result.txt", result2 + "\n")

else:

print url + ":不能访问 或者 网络不稳定"

 

if q.empty():

delRep()

 

#保存记录

def writeFile(filename,context):

f= file(filename,"a+")

f.write(context)

f.close()

 

#去重复

def delRep():

buff = []

for ln in open('result.txt'):

if ln in buff:

continue

buff.append(ln)

with open('result2.txt', 'w') as handle:

handle.writelines(buff)

 

#判断文件是否创建

def isExist():

if not os.path.exists(r'result.txt'):

f = open('result.txt', 'w')

f.close()

else:

os.remove('result.txt')

 

if os.path.exists(r'result2.txt'):

os.remove('result2.txt')

 

if __name__=="__main__":

isExist()

 

#读取网址

lines = open("domains.txt","r")

for line in lines:

line=line.rstrip()

q.put(line)

 

#开启线程

for i in range(3):

t = threading.Thread(target=scaner)

t.start()

       2 寻找C段薄弱点

       使用w12scan对得到的C段进行扫描,探测C段中每个ip对应的端口,寻找薄弱点。

w12scan

       3 goby扫描

       旁站

       C段,内网等不属于常规检测流程,扩大渗透范围用。

11、敏感信息搜集

       推荐工具

       theharvester: https://github.com/laramies/theHarvester

       maltego(需要梯子): https://www.paterva.com/

       JSFinder: https://github.com/Threezh1/JSFinder

       1 搜集敏感信息

       利用各大搜索引擎搜索邮箱、主机等信息

theharvester

       2 进一步搜集

       可以使用google hacking在线工具: http://www.hui-blog.cool/GoogleHacking/

Google Hacking

       3 搜集JS文件

       此类问题主要存在于后台登陆页面以及类似网页内引入的JS文件中,根据此类漏洞,说不定登陆页面下引入的js文件暴露的后台路径会成为突破口。

JSFinder

12、好的工具与网站

       社工字典生成:http://bugku.com/mima/

       改请求头

       渗透常用语句

       360威胁情报中心:http://ti.360.cn/#/homepage

       在线同IP网站查询工具:http://dns.bugscaner.com

       在线cms指纹识别:http://whatweb.bugscaner.com/look/

13、whois查询

       http://who.is

       http://whois.chinaz.com

14、扫目录与其他东西

       我常用dirseach和御剑,这东西看字典的,都是以爆破的形式获得信息。url采集,fofa利用工具。

参考链接

       SRC信息收集(一):http://hui-blog.cool/posts/15287.html#toc-heading-7

       自己的经验与上期看公众号的收获。

posted @ 2021-02-26 17:35  11阳光  阅读(434)  评论(0编辑  收藏  举报