爬虫模块大全

网络

  • 通用
  1. urllib -网络库(stdlib)。
  2. requests -网络库。
  3. grab – 网络库(基于pycurl)。
  4. pycurl – 网络库(绑定libcurl)。
  5. urllib3 – Python HTTP库,安全连接池、支持文件post、可用性高。
  6. httplib2 – 网络库。
  7. RoboBrowser – 一个简单的、极具Python风格的Python库,无需独立的浏览器即可浏览网页。
  8. MechanicalSoup -一个与网站自动交互Python库。
  9. mechanize -有状态、可编程的Web浏览库。
  10. socket – 底层网络接口(stdlib)。
  11. Unirest for Python – Unirest是一套可用于多种语言的轻量级的HTTP库。
  12. hyper – Python的HTTP/2客户端。
  13. PySocks – SocksiPy更新并积极维护的版本,包括错误修复和一些其他的特征。作为socket模块的直接替换。
  • 异步
  1. treq – 类似于requests的API(基于twisted)。
  2. grequests – 封装了gevent+requests模块的grequests模块
  3. aiohttp – asyncio的HTTP客户端/服务器(PEP-3156)。

网络爬虫框架

  • 功能齐全的爬虫
  1. grab – 网络爬虫框架(基于pycurl/multicur)。
  2. scrapy – 网络爬虫框架(基于twisted),不支持Python3。
  3. pyspider – 一个强大的爬虫系统。
  4. cola – 一个分布式爬虫框架。
  • 其他
  1. portia – 基于Scrapy的可视化爬虫。
  2. restkit – Python的HTTP资源工具包。它可以让你轻松地访问HTTP资源,并围绕它建立的对象。
  3. demiurge – 基于PyQuery的爬虫微框架。

HTML/XML解析器

  • 通用
  1. lxml – C语言编写高效HTML/ XML处理库。支持XPath。
  2. cssselect – 解析DOM树和CSS选择器。
  3. pyquery – 解析DOM树和jQuery选择器。
  4. BeautifulSoup – 低效HTML/ XML处理库,纯Python实现。
  5. html5lib – 根据WHATWG规范生成HTML/ XML文档的DOM。该规范被用在现在所有的浏览器上。
  6. feedparser – 解析RSS/ATOM feeds。
  7. MarkupSafe – 为XML/HTML/XHTML提供了安全转义的字符串。
  8. xmltodict – 一个可以让你在处理XML时感觉像在处理JSON一样的Python模块。
  9. xhtml2pdf – 将HTML/CSS转换为PDF。
  10. untangle – 轻松实现将XML文件转换为Python对象。
  • 清理
  1. Bleach – 清理HTML(需要html5lib)。
  2. sanitize – 为混乱的数据世界带来清明。
posted @ 2018-10-09 15:22  Sgoyi  阅读(1120)  评论(0编辑  收藏  举报