python3 无限爬虫

import requests
from queue import SimpleQueue
import re
q = SimpleQueue()
crawled = set()
def has_crawled(url):
url = url.replace('http://', '').replace('https://', '').replace('/', '')
if url in crawled:
return True
crawled.add(url)
return False
u = 'http://baidu.com'
q.put(u)
has_crawled(u)
while not q.empty():
url = q.get()
try:
r = requests.get(url)
except BaseException:
break
except Exception:
continue
print(url)
ls = re.findall('(https?://[A-Za-z0-9.]*?)[^A-Za-z0-9.]', r.text)
for e in ls:
if not has_crawled(e):
q.put(e)
posted @   zpchcbd  阅读(221)  评论(0编辑  收藏  举报
编辑推荐:
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
阅读排行:
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
点击右上角即可分享
微信分享提示