Xray批量挖洞的几种方法

AWVS联动Xray

使用AWVS爬虫功能,批量爬取目标链接,联动XRAY进行被动扫描

参考链接:
https://github.com/test502git/awvs13_batch_py3

crawler联动Xray

https://github.com/timwhitez/crawlergo_x_XRAY

fofa2Xray

https://github.com/piaolin/fofa2Xray/blob/master/README_ZH.md

https://github.com/Miagz/XrayFofa

被动_社区版xray与rad深度融合

社区版:设置上级代理为xray监听地址 运行xray:

xray webscan --listen 127.0.0.1:7777 --html-output proxy.html

运行rad:

rad -t http://example.com -http-proxy 127.0.0.1:7777

高级版xray(对 rad 进行了深度融合),下载后可以一键使用:

xray webscan --browser-crawler http://example.com --html-output vuln.html

xray批量扫描url

参考链接:
https://blog.csdn.net/qq_42404383/article/details/111304466

白嫖参考代码:

#author: 想学点black技术
#用法: 在bat.py的同目录下生成xray_url.txt,根据自己的需求更改scan_command即可
#time: 2020年12月16日20:27:40
#环境: python3
#说明: command中的xray路径需要手动修改,报告生成的位置在同一目录下

import os
import hashlib
import re

# 扫描
def get_url():
    f = open("xray_url.txt")
    lines = f.readlines()
    # 匹配http | https请求头
    pattern = re.compile(r'^(https|http)://')
    for line in lines:
        try:
            if not pattern.match(line.strip()):
                targeturl="http://"+line.strip()
            else:
                targeturl=line.strip()
            # print(targeturl.strip())
            outputfilename=hashlib.md5(targeturl.encode("utf-8"))
            do_scan(targeturl.strip(), outputfilename.hexdigest())
        except Exception as e:
            print(e)
            pass
    f.close()
    print("Xray Scan End~")
    return

# 报告
def do_scan(targeturl,outputfilename="test"):
    scan_command="E:/tools/xray_windows_amd64.exe/xray.exe webscan --basic-crawler {} --html-output {}.html".format(targeturl,outputfilename)
    # scan_command = "ping 943ogg.dnslog.cn"
    # print(scan_command)
    os.system(scan_command)
    return

if __name__ == '__main__':
    get_url()

posted @ 2021-08-27 01:14  admax11  阅读(1011)  评论(0编辑  收藏  举报