bing搜索引擎子域名收集(Python脚本)
利用bing搜索引擎进行子域名收集,编写了一个简单的Python脚本,分享一下。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 | #! /usr/bin/env python # _*_ coding:utf-8 _*_ import requests import urlparse from bs4 import BeautifulSoup import sys def bing_search(url,page): Subdomain=[] headers={ 'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:55.0) Gecko/20100101 Firefox/55.0' } for i in range( int (page)): try : url= "https://cn.bing.com/search?q=site%3A" +site+ "&qs=n&form=QBRE&sp=-1&pq=site%3A" +site+ "&sc=2-11&sk=&cvid=C1A7FC61462345B1A71F431E60467C43&toHttps=1&redig=3FEC4F2BE86247E8AE3BB965A62CD454&pn=2&first=1&FROM=PERE" #.format(i) html= requests. get (url,headers=headers,timeout=3) except: pass soup=BeautifulSoup(html.content, 'html.parser' ) job_bt=soup.findAll( 'h2' ) for i in job_bt: #print(i.a.get('href')) link = i.a. get ( 'href' ) domain=str(urlparse.urlparse(link).scheme+ "://" +urlparse.urlparse(link).netloc) Subdomain.append(domain) Subdomain=list( set (Subdomain)) #去重 return Subdomain if __name__ == '__main__' : #site=baidu.com if len(sys.argv) == 3: site=sys.argv[1] page=sys.argv[2] else : print ( "usage: %s baidu.com 10" % sys.argv[0]) sys.exit(-1) Subdomain=bing_search(site,page) for i in Subdomain: print i |
测试截图:
bing.py site page #主域名 + 搜索多少页
关于我:一个网络安全爱好者,致力于分享原创高质量干货,欢迎关注我的个人微信公众号:Bypass--,浏览更多精彩文章。
本文由Bypass整理发布,转载请保留出处。
欢迎关注我的个人微信公众号:Bypass--,浏览更多精彩文章。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 2025年我用 Compose 写了一个 Todo App
· 张高兴的大模型开发实战:(一)使用 Selenium 进行网页爬虫