websec80

  博客园  :: 首页  :: 新随笔  :: 联系 ::  :: 管理
  97 随笔 :: 50 文章 :: 3 评论 :: 14万 阅读

首先说一下这个原理:

Xray是被动扫描器,它检测的是经过某一端口的流量数据包来判断是否有漏洞,对于XSS漏洞有奇效;这样的话我们需要一个爬虫来产生大量流量,爬取各种网站,一般是Burpsuite/AWVS/Crawlergo这三个爬虫工具。

联动的效果是:白天电脑自动挖洞,然后你可以去做别的事情,比如去B站学习新知识;然后到了晚上把白天Xray检测的文档翻看一下,有漏洞的话就去验证下。然后提交,巴适得很。

我一开始使用的是AWVS+Xray联动,但是今天不知道咋的它罢工了。所以不得已想别的办法Crawlergo+Xray联动

环境说一下:

windows10系统64位

安装python3

导入模块:

1
2
3
4
5
6
7
pip install
 
simplejson
threading
subprocess
requests
warnings

首先你得去这两个gayhub网站下载他们写好的项目:

Xray 顺便说一下,今天更新了,加入了shiro反序列化漏洞检测POC

 这个解压以后我看他名字太长了,就改成了xray.exe

 

Crawlergo

 

crawlergo_x_XRAY

下载完这些:

文件里是这样放置的:

 

 

targets.txt文件使是我们想要爬取的目标网站。

targets.txt中的网址是这个格式的:http://example.com/

 

 

 

 这是运行之后的效果,awvs.html(Xray的扫描结果)/ca.crt(证书相关)/ca.key(证书相关)/sub_domains.txt(爬取的子域名)都是运行产生的。

config.yaml是Xray的配置文件,这个地方,需要大家好好读配置文件每个参数的意思,有可能可以帮助你多发现漏洞

 

然后launcher_new.py你需要修改一些东西:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
#!/usr/bin/python3
# coding: utf-8
import simplejson
import threading
import subprocess
import requests
import warnings
warnings.filterwarnings(action='ignore')
 
 
def opt2File(paths):
    try:
        = open('crawl_result.txt','a')
        f.write(paths + '\n')
    finally:
        f.close()
 
def opt2File2(subdomains):
    try:
        = open('sub_domains.txt','a')
        f.write(subdomains + '\n')
    finally:
        f.close()
 
 
 
def main(data1):
    target = data1
    cmd = ["./crawlergo""-c", r"C:\Users\admin\AppData\Local\Google\Chrome\Application\chrome.exe","-t""5","-f","smart","--fuzz-path""--push-to-proxy""http://127.0.0.1:1111/""--push-pool-max""10","--output-mode""json" , target]
    rsp = subprocess.Popen(cmd, stdout=subprocess.PIPE, stderr=subprocess.PIPE)
    output, error = rsp.communicate()
    try:
        result = simplejson.loads(output.decode().split("--[Mission Complete]--")[1])
    except:
        return
    req_list = result["req_list"]
    sub_domain = result["sub_domain_list"]
    print(data1)
    print("[crawl ok]")
    for subd in sub_domain:
        opt2File2(subd)
    print("[scanning]")

 改成你自己的谷歌浏览器路径 

 

 前面要加“r”,否则可能会报错:'unicodeescape' codec can't decode bytes in positio n。这个报错原因和解决方法在这里

 

然后修改launcher_new.py文件默认为Xray代理端口(还是和上面的修改路径在同一行):1111 (我这里是1111,你也可以设置别的,到时对应起来就行)

 

 

 

然后进入正戏了:

先启动Xray:

1
D:\tools\Xray+Go\Xray>xray.exe  webscan --listen 127.0.0.1:1111 --html-output awvs.html

 

 然后启动Crawlergo:(我本机环境py2/py3共存,映射为python2-->pip2 、python-->pip )我这里的python就是python3

1
pip install  simplejson   安装各种需要的模块包
1
2
3
4
5
import simplejson
import threading
import subprocess
import requests
import warnings   这个应该都会的
1
2
#启动Crawlergo(对了  我这里是Git Bash 启动的)
python launcher_new.py

  

 

 

 要说一下的是  启动Crawlergo的时间可能有点慢,你需要等待个40来秒中左右 可能跟目标网站多少有关

Xray扫描的漏洞结果:

posted on   websec80  阅读(681)  评论(0编辑  收藏  举报
编辑推荐:
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?
· 如何调用 DeepSeek 的自然语言处理 API 接口并集成到在线客服系统
点击右上角即可分享
微信分享提示