2019年7月16日

python selenium爬虫工具

摘要: 今天seo的同事需要一个简单的爬虫工具, 根据一个url地址,抓取改页面的a连接,然后进入a连接里面的页面再次抓取a连接 1.需要一个全局的set([])集合来保存抓取的url地址 2.由于现在单页面也来越多,所以我们借用selenium来抓取页面内容, 由于页面内容比较多, 我们程序需要将滚动条滚 阅读全文

posted @ 2019-07-16 17:10 dz45693 阅读(1828) 评论(0) 推荐(0) 编辑

导航