Linux curl 命令
curl is a tool to transfer data from or to a server, using one of the supported protocols ( http ,https ,ftp ,telnet ,...... )
[root@localhost ~]$ curl http://www.baidu.com/ # 获取指定页面,默认将输出打印到标准输出(STDOUT)中 [root@localhost ~]$ curl http://www.baidu.com/ -o baidu.html # 获取指定页面,并把标准输出保存到指定文件中 [root@localhost ~]$ curl -I http://www.baidu.com/ # 只显示指定页面的头部信息
命令参数:
-I # 只显示指定页面的头部信息,用法如:curl -I http://www.baidu.com/ -o # 把输出保存到指定的文件中,用法如:curl -o index.html http://www.baidu.com/ -O # 把输出保存到文件中,这个文件名取自URL中的文件名,如:curl -O http://www.baidu.com/abc.html 会保存一个abc.html文件 # 该参数的另一种用法是可以循环下载文件,比如:curl -O http://www.baidu.com/[1-5].jpg 可以把 1.jpg 2.jpg ... 下载下来 -d # 用法发送POST请求,与-X连用,用法如:curl -d "user=tom&pass=123" -X POST http://www.baidu.com/ -X # 指定发送数据的方式,与-d连用,用法如:curl -d "user=tom&pass=123" -X POST http://www.baidu.com/ -C # 断点续传,防止下载到一半失败,用法如:curl -C - -O http://www.baidu.com/index.html,其中的"-"是让curl自动找到在哪里恢复续传 -L # 下载重定向后的网页,用法如:curl -L http://www.baidu.com/ 参考:https://www.jb51.net/article/118402.htm -A # 自定义用户代理(User-Agent)来获取页面,用法如:curl -A "Mozilla/5.0 ... Firefox/35.0" http://www.baidu.com/ -x # 自定义代理服务器来获取页面,用法如:curl -x 192.168.100.100:1080 http://www.baidu.com/ -c # 用于保存cookie信息到指定的文件,用法如:curl -c cookie.txt http://www.baidu.com -D # 用于保存header信息到指定的文件,用法如:curl -D header.txt http://www.baidu.com/ -b # 使用指定的cookie文件来获取页面,用法如:curl -b cookie.txt http://www.baidu.com/ -e # 伪造盗链(referer)来获取页面,用法如:curl -e "www.linux.com" http://www.baidu.com/ -u # 使用用户名和密码来下载需要授权的页面,用法如:curl -u username:password http://www.baidu.com/
-# # 下载页面的同时显示进度条,与--progress用法一致,用法如:curl -# -O http://www.baidu.com/index.html -s/--silent # 下载页面时不显示进度条,用法如:curl --silent -O http://www.baidu.com/index.html --progress # 下载页面时显示进度条,用法如:curl --progress -O http://www.baidu.com/index.html --limit-rate # 限制下载速度,用法如:curl --limit-rate 10M http://www.baidu.com/