bing搜索引擎子域名收集(Python脚本)

利用bing搜索引擎进行子域名收集,编写了一个简单的Python脚本,分享一下。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
#! /usr/bin/env python
# _*_  coding:utf-8 _*_
 
import requests
import urlparse
from bs4 import BeautifulSoup
import sys
 
def bing_search(url,page):
    Subdomain=[]
    headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:55.0) Gecko/20100101 Firefox/55.0'}
    for i in range(int(page)):
        try:
            url="https://cn.bing.com/search?q=site%3A"+site+"&qs=n&form=QBRE&sp=-1&pq=site%3A"+site+"&sc=2-11&sk=&cvid=C1A7FC61462345B1A71F431E60467C43&toHttps=1&redig=3FEC4F2BE86247E8AE3BB965A62CD454&pn=2&first=1&FROM=PERE" #.format(i)
            html= requests.get(url,headers=headers,timeout=3)
        except:
            pass
        soup=BeautifulSoup(html.content,'html.parser')
        job_bt=soup.findAll('h2')
        for i in job_bt:
            #print(i.a.get('href'))
            link = i.a.get('href')
            domain=str(urlparse.urlparse(link).scheme+"://"+urlparse.urlparse(link).netloc)
            Subdomain.append(domain)
        Subdomain=list(set(Subdomain))  #去重
    return Subdomain
if __name__ == '__main__':
    #site=baidu.com
    if len(sys.argv) == 3:
        site=sys.argv[1]
        page=sys.argv[2]
    else:
        print ("usage: %s baidu.com 10" % sys.argv[0])
        sys.exit(-1)
     
    Subdomain=bing_search(site,page)
    for i in Subdomain:
        print i

 

测试截图:

bing.py  site  page    #主域名 + 搜索多少页

 

关于我:一个网络安全爱好者,致力于分享原创高质量干货,欢迎关注我的个人微信公众号:Bypass--,浏览更多精彩文章。

posted @   Bypass  阅读(2325)  评论(0编辑  收藏  举报
编辑推荐:
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 2025年我用 Compose 写了一个 Todo App
· 张高兴的大模型开发实战:(一)使用 Selenium 进行网页爬虫
点击右上角即可分享
微信分享提示