黑客的探路狗ReconDog网站信息探测收集工具

下载并运行Recon Dog,如果运行的时候提示权限不够可以使用 chmod  +x  dog.py 在运行就可以了
在终端中输入以下命令进行下载

下载程序后,输入以下命令进入到Recon Dog目录并列出内容

现在使用以下命令运行脚本。

软件功能

  • 1. Whois Lookup
  • 2. DNS Lookup + Cloudflare Detector
  • 3. Zone Transfer
  • 4. Port Scan
  • 5. HTTP Header Grabber
  • 6. Honeypot Detector
  • 7. Robots.txt Scanner
  • 8. Link Grabber
  • 9. IP Location Finder
  • 10. Traceroute
1.whois信息:
我们先看第一个选项,也就是whois就是一个用来查询域名是否已经被注册,以及注册域名的详细信息的数据库(如域名所有人、域名注册商、域名注册日期和过期日期等)。通过域名Whois服务器查询,可以查询域名归属者联系方式。这步的意义不是很大,但却是踩点之前的准备,以防止领导突然一问,让你措手不及
2.DNS解析:
第二个选项,是DNS的解析,可以针对指定的域名进行查询,看该域名属于那些dns去解析的,国内注册的域名大多是通过万网、阿里云等去解析的dns,dns就是一个转换的过程,吧我们注册的域名转换成公网的ip地址,这样就是正想解析,与之相对应的就是反向解析,指的是ip地址到域名的对应和转换如果针对某些域名进行ddos,不妨可以尝试针对dns进行拒绝服务,效果真的不是一般的好,但也会造成一大片区域无法访问互联网
3.DNS域传送:
dns域传送,大家接触的比较少,也很少听说过,大体的意思就是可以通过dns服务器的错误配置,导致解析记录不经过主dns解析,而是通过实现伪造的dns去解析,常用来在公网环境进行劫持等操作但一般的影响比较大,这个就比较类似于ettercap的arp劫持的操作了
4.端口扫描:
由于该工具采用 指定域名的api作为调用接口,因此 我们在扫描的时候。不会暴露我们自己的ip地址,相当于借刀杀人,小编亲测,在kali中使用nmap对目标进行扫描的时候,却无法得出详细的结果,但是通过该工具的端口扫描却得出了详细的端口开放的情况,虽说不是很详细,但也为下一步的操作打下了基础
5.Web指纹:
一说到指纹,那就是独语无二的,那么我们常说的服务指纹,也是一样的,同样也是独一无二的,就算我们使用一些工具去针对指定的站点克隆出来的也不会一样,该模块主要用来确定攻击目标,以确保我们不会打错,打歪。
 
同样在kali-linux中,也有类似的工具,whatweb就是其中之一,他和我们的主角的模块相差无几,但是别忘了,我们的主角是使用的api作为接口,这样就更进一步减少我们暴露的机会
6.蜜罐检测:
讲真,小编没有详细的看这个模块,所以不做评价,只是简单的测试了一下,以为我还太菜,是不是蜜罐凭着现在的经验我分辨不出来,所以这里不细说,安全意识比较强的小伙伴不放在每次渗透测试的时候试试,玩意找到一个蜜罐,别忘了去买张彩票哦,
7.robots文件枚举:
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。一方面可以使用robots文件针对搜索引擎屏蔽,也可以使用该文件提高网站的排名,同样默认的robots文件很可能暴露网站的相关目录,如果权限太松,就有可能造成越权访问,或者目录遍历等漏洞
8.链接检测:
我觉得模块针对开发者来说比较好用,因为目标站点在开发支出,很有可能只为了前端的公正,而忽视了中间的链接,那么该工具能很好的帮我们分析出那些链接断掉了,变成了404的状态,
9.ip定位:
这个就是通过ip转换成经纬度的过程,往常我们直接使用ip地址进行物理位置查询,却只能查到大概的城市,有些能精确到具体的小区,而该工具却可以做到更精确的地步,或者大家也可以使用纯真ip库大家不妨自己试试自己的ip地址哦
10.路由跳点:
kali-linux 也有相关的路由跳点的工具 traceroute,主要用来查看当前主机通过哪些路由访问的指定的站点,中间经过了哪些防火墙或者网桥等设备,也可以在链路中看到哪些路由点耗时最长,从而帮助我们选择最快的路由线路,减少数据在传输过程中的延迟

后记:

看到这里 是不是觉得这个工具很不错,借刀杀人很爽?但笔者只能告诉你,适当的使用,你可以这样想想,如果这台服务器被第三方攻破,那么你通过他的api搜集的信息,都会被他看一遍,如果他要是把这些信息保存起来呢?所以这里就值得我们去反思一下,就像哪些共享的某些服务,比如http代理服务器,共享ftp服务器,或者类似的共享服务器,你又怎么知道服务器的主人会不会在后台默默地收集你的信息?打着更新的旗号默默地给你插一个木马?这里留下一个疑问留给大家思考。

posted @ 2018-04-26 11:11  Python研究者  阅读(764)  评论(0编辑  收藏  举报