Markdown_Crawler
Markdown_Crawler
摘自[懂AI](Markdown-Crawler: 一款强大的网页爬虫与Markdown转换工具 - 懂AI) - Markdown-Crawler: 一款强大的网页爬虫与Markdown转换工具 - 懂AI
📜 许可证
Markdown-Crawler采用MIT许可证,这意味着您可以自由地使用、修改和分发这个工具,但需要保留原始的版权和许可声明。
值得一提的是,Markdown-Crawler使用了Matthew Tretter开发的markdownify库。该库的源代码可以在这里找到,同样采用MIT许可证。
🤝 社区贡献
Markdown-Crawler是一个开源项目,欢迎社区成员参与贡献。如果您在使用过程中遇到任何问题,可以在GitHub上提出issue或提交PR。开发者Paul Pierre也欢迎通过Twitter/X进行交流。
- 在Twitter / X上关注作者
- 在Github上为项目点星
🚀 Markdown-Crawler简介
Markdown-Crawler是由开发者Paul Pierre创建的一款功能强大的网页爬虫工具。它采用多线程技术,能够高效地爬取网站内容,并将每个页面转换为Markdown格式的文件。这个工具的主要目标是简化大型语言模型(LLM)在文档处理和解析方面的工作,尤其适用于RAG(检索增强生成)等场景。
✨ 主要特性
Markdown-Crawler拥有许多令人印象深刻的功能:
- 🧵 多线程支持,大幅提升爬取速度
- ⏯️ 断点续爬功能,可从上次停止的地方继续
- ⏬ 可设置最大爬取深度
- 📄 支持表格、图片等复杂元素的转换
- ✅ 自动验证URL、HTML和文件路径
- ⚙️ 可配置有效的基础路径或域名列表
- 🍲 使用BeautifulSoup解析HTML
- 🪵 详细的日志记录选项
- 👩💻 即用型命令行界面
这些特性使Markdown-Crawler成为一个灵活且强大的工具,能够满足各种网页爬取和转换需求。
🏗️ 应用场景
Markdown-Crawler的应用范围相当广泛,以下是一些典型的使用场景:
- RAG(检索增强生成):这是该工具的主要用例。它可以将大型文档标准化,并按标题、段落或句子进行分块,为RAG模型提供高质量的输入数据。
- LLM微调:可以用来创建大规模的Markdown文件语料库,作为微调过程的第一步。随后可以利用GPT-3.5-turbo或Mistral-7B等模型从中提取问答对。
- 智能代理知识库构建:结合autogen等工具,可以为专家系统代理构建知识库。例如,如果需要重建某个视频游戏或电影的知识体系,可以使用Markdown-Crawler生成相应的专家知识库。
- 智能代理/LLM工具:用于在线RAG学习,使聊天机器人能够持续学习。可以结合搜索引擎结果,爬取并索引排名靠前的网页内容。
- 文档管理系统:可以用于将大型网站或知识库转换为易于管理和搜索的Markdown文件集合。
- 内容分析:通过将网页内容转换为结构化的Markdown格式,便于进行后续的文本分析和数据挖掘工作。
- 离线阅读:可以将喜欢的网站内容爬取并转换为Markdown,方便在没有网络的环境下阅读。
🚀 快速上手
要开始使用Markdown-Crawler,您可以通过以下几种方式:
- 通过pip安装:
pip install markdown-crawler
- 使用命令行界面:
markdown-crawler -t 5 -d 3 -b ./markdown https://en.wikipedia.org/wiki/Morty_Smith
这个命令会使用5个线程,爬取深度为3,并将结果保存在./markdown目录下。
- 在Python代码中使用:
from markdown_crawler import md_crawl url = 'https://en.wikipedia.org/wiki/Morty_Smith' md_crawl(url, max_depth=3, num_threads=5, base_path='markdown')
❤️学习资源
⚙️ 配置选项
Markdown-Crawler提供了多种配置选项,使用户能够根据具体需求自定义爬取行为:
max_depth
:设置最大爬取深度num_threads
:指定使用的线程数base_path
:设置Markdown文件的保存路径valid_paths
:指定有效的相对URL路径列表target_content
:使用CSS选择器指定要爬取的HTML元素is_domain_match
:是否只爬取同一域名下的页面is_base_path_match
:是否包含不以基础URL开头的同域名页面is_debug
:是否启用详细日志输出
这些选项可以通过命令行参数或在代码中直接设置。
🛠️ 技术实现
Markdown-Crawler主要依赖以下Python库:
- BeautifulSoup4:用于解析HTML
- requests:处理HTTP请求
- markdownify:将HTML转换为Markdown格式
工具的核心逻辑包括:
- 使用requests库发送HTTP请求获取网页内容
- 利用BeautifulSoup解析HTML结构
- 通过markdownify将HTML转换为Markdown格式
- 使用多线程技术并行处理多个页面
- 实现断点续爬功能,保存爬取进度
- 提供灵活的配置选项,适应不同的爬取需求
本文来自博客园,作者:sevenShaw,转载请注明原文链接:https://www.cnblogs.com/sevenShaw/p/18628581
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)