Wget/httrack 爬取整站资源

wget 是一个从网络上自动下载文件的自由工具,支持通过 HTTP、HTTPS、FTP 三个最常见的 TCP/IP协议 下载,并可以使用 HTTP 代理。"wget" 这个名称来源于 “World Wide Web” 与 “get” 的结合。

[root@localhost ~]# yum install -y wget
[root@localhost ~]# wget -c -r -npH -k -nv http://www.baidu.com

参数说明
-c:断点续传
-r:递归下载
-np:递归下载时不搜索上层目录
-nv:显示简要信息
-nd:递归下载时不创建一层一层的目录,把所有文件下载当前文件夹中
-p:下载网页所需要的所有文件(图片,样式,js文件等)
-H:当递归时是转到外部主机下载图片或链接
-k:将绝对链接转换为相对链接,这样就可以在本地脱机浏览网页了
-L:     只扩展相对连接,该参数对于抓取指定站点很有用,可以避免向宿主主机
wget.exe -d -S -O - http://lyshark.com # 显示请求和响应的headers
wget -c -r -npH -k -nv http://lyshark.com # 爬取整个页面
--user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10"

HTTrack是一个免费并易于使用的线下浏览器工具,全称是HTTrack Website Copier for Windows,它能够让你从互联网上下载整个网站进行线下浏览。

[root@localhost ~]# yum install -y httrack
[root@localhost ~]# httrack "https://www.baidu.com" -o "/root" "+*.https://www.baidu.com*" -v

页面渲染工具

安装所需要的包,并通过浏览器访问8050端口验证安装是否成功。

yum install -y yum-utils device-mapper-persistent-data lvm2
docker pull scrapinghub/splash
docker run -d -p 8050:8050 scrapinghub/splash
posted @   lyshark  阅读(2341)  评论(0编辑  收藏  举报
编辑推荐:
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?

8951476 | 6896845
博客园 - 开发者的网上家园

点击右上角即可分享
微信分享提示