Markdown_Crawler

Markdown_Crawler

摘自[懂AI](Markdown-Crawler: 一款强大的网页爬虫与Markdown转换工具 - 懂AI) - Markdown-Crawler: 一款强大的网页爬虫与Markdown转换工具 - 懂AI

📜 许可证

Markdown-Crawler采用MIT许可证,这意味着您可以自由地使用、修改和分发这个工具,但需要保留原始的版权和许可声明。

值得一提的是,Markdown-Crawler使用了Matthew Tretter开发的markdownify库。该库的源代码可以在这里找到,同样采用MIT许可证。

🤝 社区贡献

Markdown-Crawler是一个开源项目,欢迎社区成员参与贡献。如果您在使用过程中遇到任何问题,可以在GitHub上提出issue或提交PR。开发者Paul Pierre也欢迎通过Twitter/X进行交流。

🚀 Markdown-Crawler简介

Markdown-Crawler是由开发者Paul Pierre创建的一款功能强大的网页爬虫工具。它采用多线程技术,能够高效地爬取网站内容,并将每个页面转换为Markdown格式的文件。这个工具的主要目标是简化大型语言模型(LLM)在文档处理和解析方面的工作,尤其适用于RAG(检索增强生成)等场景。

✨ 主要特性

Markdown-Crawler拥有许多令人印象深刻的功能:

  1. 🧵 多线程支持,大幅提升爬取速度
  2. ⏯️ 断点续爬功能,可从上次停止的地方继续
  3. ⏬ 可设置最大爬取深度
  4. 📄 支持表格、图片等复杂元素的转换
  5. ✅ 自动验证URL、HTML和文件路径
  6. ⚙️ 可配置有效的基础路径或域名列表
  7. 🍲 使用BeautifulSoup解析HTML
  8. 🪵 详细的日志记录选项
  9. 👩‍💻 即用型命令行界面

这些特性使Markdown-Crawler成为一个灵活且强大的工具,能够满足各种网页爬取和转换需求。

🏗️ 应用场景

Markdown-Crawler的应用范围相当广泛,以下是一些典型的使用场景:

  1. RAG(检索增强生成):这是该工具的主要用例。它可以将大型文档标准化,并按标题、段落或句子进行分块,为RAG模型提供高质量的输入数据。
  2. LLM微调:可以用来创建大规模的Markdown文件语料库,作为微调过程的第一步。随后可以利用GPT-3.5-turbo或Mistral-7B等模型从中提取问答对。
  3. 智能代理知识库构建:结合autogen等工具,可以为专家系统代理构建知识库。例如,如果需要重建某个视频游戏或电影的知识体系,可以使用Markdown-Crawler生成相应的专家知识库。
  4. 智能代理/LLM工具:用于在线RAG学习,使聊天机器人能够持续学习。可以结合搜索引擎结果,爬取并索引排名靠前的网页内容。
  5. 文档管理系统:可以用于将大型网站或知识库转换为易于管理和搜索的Markdown文件集合。
  6. 内容分析:通过将网页内容转换为结构化的Markdown格式,便于进行后续的文本分析和数据挖掘工作。
  7. 离线阅读:可以将喜欢的网站内容爬取并转换为Markdown,方便在没有网络的环境下阅读。

🚀 快速上手

要开始使用Markdown-Crawler,您可以通过以下几种方式:

  1. 通过pip安装:
pip install markdown-crawler
  1. 使用命令行界面:
markdown-crawler -t 5 -d 3 -b ./markdown https://en.wikipedia.org/wiki/Morty_Smith

这个命令会使用5个线程,爬取深度为3,并将结果保存在./markdown目录下。

  1. 在Python代码中使用:
from markdown_crawler import md_crawl
url = 'https://en.wikipedia.org/wiki/Morty_Smith'
md_crawl(url, max_depth=3, num_threads=5, base_path='markdown')

❤️学习资源

⚙️ 配置选项

Markdown-Crawler提供了多种配置选项,使用户能够根据具体需求自定义爬取行为:

  • max_depth:设置最大爬取深度
  • num_threads:指定使用的线程数
  • base_path:设置Markdown文件的保存路径
  • valid_paths:指定有效的相对URL路径列表
  • target_content:使用CSS选择器指定要爬取的HTML元素
  • is_domain_match:是否只爬取同一域名下的页面
  • is_base_path_match:是否包含不以基础URL开头的同域名页面
  • is_debug:是否启用详细日志输出

这些选项可以通过命令行参数或在代码中直接设置。

🛠️ 技术实现

Markdown-Crawler主要依赖以下Python库:

  • BeautifulSoup4:用于解析HTML
  • requests:处理HTTP请求
  • markdownify:将HTML转换为Markdown格式

工具的核心逻辑包括:

  1. 使用requests库发送HTTP请求获取网页内容
  2. 利用BeautifulSoup解析HTML结构
  3. 通过markdownify将HTML转换为Markdown格式
  4. 使用多线程技术并行处理多个页面
  5. 实现断点续爬功能,保存爬取进度
  6. 提供灵活的配置选项,适应不同的爬取需求
posted @   sevenShaw  阅读(22)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示