linux-cmd-curl
linux-cmd-curl
- 参考地址:
https://www.cnblogs.com/duhuo/p/5695256.html
http://linux.51yip.com/search/curl
https://stackoverflow.com/questions/356705/how-to-send-a-header-using-a-http-request-through-a-curl-call
1.curl 用法
-
curl是一个利用URL规则在命令行下工作的文件传输工具。
-
curl 可以通过网络将信息传递给服务器或者从服务器获取数据
-
他支持很多的传输协议,尤其是HTTP/HTTPS以及其他诸如FTP/FTPS, RTSP, POP3/POP3S, SCP, IMAP/IMAPS协议等。
-
当你使用curl向一个URL发送HTTP请求的时候,它会使用一个默认只包含必要的头部字段(如:User-Agent, Host, and Accept)的HTTP头。
-
常用参数如下:
-A/--user-agent 设置用户代理发送给服务器
-b/--cookie <name=string/file> cookie字符串或文件读取位置
-c/--cookie-jar <file> 将cookie写入到文件
-C/--continue-at <offset> 断点续转
-d/–-data http post方式传送数据,可以指定 json 字符串或者 json 文件(格式:@文件名)
-D/--dump-header <file> 把header信息写入到文件
-e/–-referer 设置 "Referer" 字段,指定引用地址
-f/--fail 连接失败时不显示http错误
-F/–-from 模拟http表达提交数据
-i/--include 在返回信息中包含协议头
-I/--head 仅返回头部信息
-o/--output 下载文件,可以指定文件名
-O/--remote-name 下载文件,使用远程文件名保存
-r/--range <range> 检索来自HTTP/1.1或FTP服务器字节范围
-T/--upload-file <file> 上传文件
-u/–-user [user:pass] 用于网页需要登录的,设置http认证用户和密码
-w/–-write-out [format] 输出指定格式内容
-x/--proxy <host[:port]> 指定代理服务器地址和端口
-#/--progress-bar 进度条显示当前的传送状态
-s/--silent 静默请求,不输出返回信息
-v 返回站点的头信息
–-retry 重试次数
–-connect-timeout 指定连接超时时间,单位为秒
2.curl 常用用法
2.1.使用 -o 访问站点下载网页
- 命令示例
# 打开站点,使用默认参数
curl www.zuiyoujie.com
# 保存网页,静默下载,不显示下载信息,如果有乱码可以使用 iconv 转码
curl -s www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.1
curl -s www.zuiyoujie.com >> /tmp/www.zuiyoujie.com.html.2
curl -s -v www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.3 |iconv -f utf-8
# 下载网页,显示头信息
curl -s -v www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.4
# 下载文件
curl -O http://www.zuiyoujie.com/hello.sh
# 循环下载
curl -O http://www.zuiyoujie.com/hello[1-5].JPG
# 下载重命名
curl -O http://www.zuiyoujie.com/{hello,bb}/filename[1-5].JPG
正常情况下由于下载的 hello 与 bb 中的文件名都是filename1,filename2,filename3,filename4,filename5。因此第二次下载的会把第一次下载的覆盖,这样就需要对文件进行重命名。
curl -o #1_#2.JPG http://www.zuiyoujie.com/{hello,bb}/filename[1-5].JPG
这样在 hello/filename 的文件下载下来就会变成 hello_filename,其他文件依此类推,从而有效的避免了文件被覆盖
# 分块下载-有时候下载的东西会比较大,这个时候我们可以分段下载。使用内置option:-r
curl -r 0-100 -o filename1_part1.JPG http://www.zuiyoujie.com/filename
curl -r 100-200 -o filename1_part2.JPG http://www.zuiyoujie.com/filename
curl -r 200- -o filename1_part3.JPG http://www.zuiyoujie.com/filename
cat filename1_part* > filename
- 实例演示
# 打开站点,使用默认参数
root@zuiyoujie:/opt/tools# curl www.zuiyoujie.com
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8">
<title></title>
<style media="screen">
* {
margin: 0;
padding: 0;
}
</style>
</head>
<body>
</body>
<script type="text/javascript">
window.location.href="http://www.cnblogs.com/tssc";
</script>
</html>
------------------------------
# 下载网页,静默下载,不显示下载信息
root@zuiyoujie:/opt/tools# curl -s www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.1
root@zuiyoujie:/opt/tools# curl -s www.zuiyoujie.com >> /tmp/www.zuiyoujie.com.html.2
root@zuiyoujie:/opt/tools# curl -s www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.3 |iconv -f utf-8
# 下载网页,显示头信息
root@zuiyoujie:/opt/tools# curl -s -v www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.4
* Rebuilt URL to: www.zuiyoujie.com/
* Trying 185.199.108.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.108.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: curl/7.58.0
> Accept: */*
> ......省略
----------------------------
root@zuiyoujie:/opt/tools# ll /tmp/www.zuiyoujie.com*
-rw-r--r-- 1 root root 375 Apr 26 17:33 /tmp/www.zuiyoujie.com.html.1
-rw-r--r-- 1 root root 375 Apr 26 17:34 /tmp/www.zuiyoujie.com.html.2
-rw-r--r-- 1 root root 375 Apr 26 17:34 /tmp/www.zuiyoujie.com.html.3
-rw-r--r-- 1 root root 375 Apr 26 17:35 /tmp/www.zuiyoujie.com.html.4
2.2.获取 HTTP 响应头 headers
- 命令示例
# 使用 -w 获取网页返回值
curl -s -w %{http_code} www.zuiyoujie.com -o /dev/null
# 获取网页 headers
curl -I http://www.zuiyoujie.com
# 获取网页 headers(HTTP 的 response) 并保存到文件中
curl http://www.zuiyoujie.com -D /tmp/header.txt.1
curl -s -I http://www.zuiyoujie.com > /tmp/header.txt.2
# 获取网页 head 信息与网页内容
curl -v http://www.zuiyoujie.com
- 实例演示
------------------------------
root@zuiyoujie:/opt/tools# curl -o /dev/null -s -w %{http_code} www.zuiyoujie.com
200
------------------------------
root@zuiyoujie:/opt/tools# curl -I http://www.zuiyoujie.com
HTTP/1.1 200 OK
Server: GitHub.com
Content-Type: text/html; charset=utf-8
Last-Modified: Wed, 20 Jun 2018 08:02:19 GMT
Access-Control-Allow-Origin: *
ETag: "5b2a0a0b-177"
expires: Mon, 26 Apr 2021 09:23:58 GMT
Cache-Control: max-age=600
x-proxy-cache: MISS
X-GitHub-Request-Id: 7A26:0F88:6ADFC0:72C8D3:60868456
Content-Length: 375
Accept-Ranges: bytes
Date: Mon, 26 Apr 2021 10:20:34 GMT
Via: 1.1 varnish
Age: 0
Connection: keep-alive
X-Served-By: cache-hnd18737-HND
X-Cache: HIT
X-Cache-Hits: 1
X-Timer: S1619432435.524239,VS0,VE153
Vary: Accept-Encoding
X-Fastly-Request-ID: 74d7eca5d9f3ca696fb974add49a1ca1ec6d90f8
------------------------------
root@zuiyoujie:/opt/tools# curl -v http://www.zuiyoujie.com
* Rebuilt URL to: http://www.zuiyoujie.com/
* Trying 185.199.110.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.110.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: curl/7.58.0
> Accept: */*
>
< HTTP/1.1 200 OK
< Server: GitHub.com
< Content-Type: text/html; charset=utf-8
< Last-Modified: Wed, 20 Jun 2018 08:02:19 GMT
< Access-Control-Allow-Origin: *
< ETag: "5b2a0a0b-177"
< expires: Mon, 26 Apr 2021 09:23:58 GMT
< Cache-Control: max-age=600
< x-proxy-cache: MISS
< X-GitHub-Request-Id: 7A26:0F88:6ADFC0:72C8D3:60868456
< Content-Length: 375
< Accept-Ranges: bytes
< Date: Mon, 26 Apr 2021 10:20:45 GMT
< Via: 1.1 varnish
< Age: 10
< Connection: keep-alive
< X-Served-By: cache-hnd18738-HND
< X-Cache: HIT
< X-Cache-Hits: 1
< X-Timer: S1619432445.121974,VS0,VE0
< Vary: Accept-Encoding
< X-Fastly-Request-ID: 1eccd14cba17ab4f67243cdec3229ddfbd9ab333
<
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8">
<title></title>
<style media="screen">
* {
margin: 0;
padding: 0;
}
</style>
</head>
<body>
</body>
<script type="text/javascript">
window.location.href="http://www.cnblogs.com/tssc";
</script>
</html>
* Connection #0 to host www.zuiyoujie.com left intact
----------------------------
root@zuiyoujie:/opt/tools# curl http://www.zuiyoujie.com -D /tmp/header.txt.1
curl -s -I http://www.zuiyoujie.com > /tmp/header.txt.2
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8">
<title></title>
<style media="screen">
* {
margin: 0;
padding: 0;
}
</style>
</head>
<body>
</body>
<script type="text/javascript">
window.location.href="http://www.cnblogs.com/tssc";
</script>
</html>
--------------------------------
root@zuiyoujie:/opt/tools# curl -s -I http://www.zuiyoujie.com > /tmp/header.txt.2
root@zuiyoujie:/opt/tools# ll /tmp/header.txt*
-rw-r--r-- 1 root root 642 Apr 26 18:26 /tmp/header.txt.1
-rw-r--r-- 1 root root 640 Apr 26 18:26 /tmp/header.txt.2
2.3.使用 -x 代理上网
- 通过 -x 来支持设置代理,指定proxy服务器以及其端口,可以用于跳过黑名单屏蔽
- 命令示例
curl -x 192.168.100.100:1080 http://www.zuiyoujie.com
2.4.curl 处理 cookie
2.4.1.使用 -b 或者 -H 修改 cookie
- curl 在访问网站是可以模拟 cookie 用于记录 session 信息
- 也可以使用 -H 修改请求头
- 命令示例
curl -v -b 'Cookie: ID=1234' www.zuiyoujie.com
curl -v -b cookie.txt www.zuiyoujie.com
curl -v --cookie 'Cookie: ID=1234' www.zuiyoujie.com
- 实例演示
root@zuiyoujie:/opt/tools# curl -b 'Cookie: ID=1234' -v www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
* Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: curl/7.58.0
> Accept: */*
> Cookie: Cookie: ID=1234
> ......省略
2.4.2.使用 -c 保存网站 cookie
- 命令示例
# 保存 cookie 到文件
curl www.zuiyoujie.com -c /tmp/cookie-c.txt
# 保存 http 的 response 里面的 header 信息
curl www.zuiyoujie.com -D /tmp/cookie-d.txt
- 注意:-c 产生的 cookie 和 -D 里面的 cookie 是不一样的
2.4.使用 -A 修改浏览器头 user-agent
- 重写 User-Agent 字符串来假冒特定浏览器以解决一些访问限制的问题
- 有些网站需要使用特定的浏览器去访问他们,有些还需要使用某些特定的版本。curl内置 option:-A 可以让我们模拟指定浏览器去访问网站
- 命令示例
# 使用 -A 修改请求头
curl -v -A "zuiyoujie" www.zuiyoujie.com
# 其他示例
curl -v -A 'Mozilla/4.0 (compatible;MSIE 6.0; Windows NT 5.0)' www.zuiyoujie.com
curl -v -A 'Mozilla/4.0 (compatible;MSIE 6.0; <a href="http://www.ttlsa.com/windows/" title="windows"target="_blank">Windows</a> NT 5.0)' www.zuiyoujie.com
- 实例演示
root@zuiyoujie:/opt/tools# curl -A "zuiyoujie" -v www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
* Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: zuiyoujie
> Accept: */*
> ......省略
-----------------------------
root@zuiyoujie:/opt/tools# curl -A 'Mozilla/4.0 (compatible;MSIE 6.0; Windows NT 5.0)' -v www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
* Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: Mozilla/4.0 (compatible;MSIE 6.0; Windows NT 5.0)
> Accept: */*
> ......省略
2.3.使用 -H 单独或者批量修改 head 请求头
- 对于 "User-Agent", "Cookie", "Host" 这类标准的HTTP头部字段,可以使用专门的参数
2.3.1.定义多个 HTTP 头部字段
- -H 选项可以在 curl 命令中被多次指定,格式: -H "key1: value1" -H "key2: value2"
- 自定义的 http 头,需要加在标准头后面
- wget是另外一个类似于curl,可以用来获取URL的命令行工具。并且wget也一样允许你使用一个自定义的HTTP头。
- 命令示例
# 使用 -H 修改 http 请求头
curl -v -H "User-Agent: zuiyoujie" www.zuiyoujie.com
curl -v -H 'Cookie: ID=1234' www.zuiyoujie.com
# 定义多个 HTTP 头部字段,重写了“HOST”字段,并且添加了两个字段("Accept-Language" 和 "Cookie")
curl -v -H 'Host: 1.2.3.4' -H 'Accept-Language: es' -H 'Cookie: ID=1234' www.zuiyoujie.com
- 实例演示
-----------------------------
root@zuiyoujie:/opt/tools# curl -v -H "User-Agent: zuiyoujie" www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
* Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> Accept: */*
> User-Agent: zuiyoujie
> ......省略
------------------------------
root@zuiyoujie:/opt/tools# curl -v -H 'Host: 1.2.3.4' -H 'Accept-Language: es' -H 'Cookie: ID=1234' www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
* Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: 1.2.3.4
> User-Agent: curl/7.58.0
> Accept: */*
> Accept-Language: es
> Cookie: ID=1234
>
< HTTP/1.1 404 Not Found
< Server: GitHub.com
< Content-Type: text/html; charset=utf-8
< ETag: "5f7b904d-239b"
< Content-Security-Policy: default-src 'none'; style-src 'unsafe-inline'; img-src data:; connect-src 'self'
< X-GitHub-Request-Id: 5D5C:1749:13CBA6:15368C:60868C40
< Content-Length: 9115
< Accept-Ranges: bytes
< Date: Mon, 26 Apr 2021 09:47:44 GMT
< Via: 1.1 varnish
< Age: 0
< Connection: keep-alive
< X-Served-By: cache-hnd18730-HND
< X-Cache: MISS
< X-Cache-Hits: 0
< X-Timer: S1619430464.326282,VS0,VE157
< Vary: Accept-Encoding
< X-Fastly-Request-ID: 2adfeaf5b91d1fe5456b5a0dd4c2122bbf56a1cf
<
<!DOCTYPE html>
......省略
</html>
* Connection #0 to host www.zuiyoujie.com left intact>
------------------------------
2.3.2.使用文件发送 post 请求
# with JSON:
curl -i -X POST -H "Accept: application/json" -H "Content-Type: application/json" http://www.zuiyoujie.com
curl -i -X POST -d @status.json http://www.zuiyoujie.com
# with XML:
curl -H "Accept: application/xml" -H "Content-Type: application/xml" -X GET http://www.zuiyoujie.com
# 需要注意的是,json数据里变量要用''括起来
atime=`date -d "$1" +%s`
btime=`date -d "$2" +%s`
curl -i -X POST -H "'Content-type':'application/json'" -d '{"ATime":"'$atime'","BTime":"'$btime'"}' $url
2.4.其他常用参数
# For posting data:
curl --data "param1=value1¶m2=value2" http://www.zuiyoujie.com/resource
# For file upload:
curl --form "fileupload=@filename.txt" http://www.zuiyoujie.com/resource
# RESTful HTTP Post:
curl -X POST -d @filename http://www.zuiyoujie.com/resource
2.5.处理重定向页面
curl –L http://192.168.1.100/301.<a href="http://www.ttlsa.com/php/" title="php"target="_blank">php</a> #默认curl是不处理重定向
curl –L http://192.168.1.100/301.php #默认curl是不处理重定向
2.6.模拟用户登陆
- 保存 cookie 信息到 cookies.txt 文件,再使用 cookie 登陆
curl –u user:pass www.zuiyoujie.com
# NAME和PWD是表单属性,每个网站基本都不同
curl -c ./cookies.txt -F NAME=user -F PWD=***URL
curl -b ./cookies.txt –o URL
# For logging into a site (auth):
curl -d "username=admin&password=admin&submit=Login" --dump-header headers http://www.zuiyoujie.com/Login
curl -L -b headers http://localhost/
2.7.伪造 referer(盗链)
- 很多服务器会检查http访问的referer从而来控制访问。比如:你是先访问首页,然后再访问首页中的邮箱页面,这里访问邮箱的referer地址就是访问首页成功后的页面地址,如果服务器发现对邮箱页面访问的referer地址不是首页的地址,就断定那是个盗连了
- curl中内置 option:-e 可以让我们设定referer
curl -e "www.zuiyoujie.com" http://mail.zuiyoujie.com
这样就会让服务器其以为你是从 www.zuiyoujie.com 点击某个链接过来的
2.8.通过 ftp 上传和下载文件
- curl可以通过ftp下载文件,curl提供两种从ftp中下载的语法
# 上传
curl -T filename ftp://user:pass@ftp.zuiyoujie.com/docs
# 下载
curl -O ftp://user:pass@ftp.zuiyoujie.com/filename
curl -O -u 用户名:密码 ftp://ftp.zuiyoujie.com/filename
# 显示下载进度条
curl -# -O http://ftp.zuiyoujie.com/filename
# 不会显示下载进度信息
curl -s -O http://ftp.zuiyoujie.com/filename
2.9.断点续传
- curl 可以通过内置 option:-C 同样可以达到相同的效果
- 如果在下载 filename 的过程中突然掉线了,可以使用以下的方式续传
curl -C -O http://ftp.zuiyoujie.com/filename
2.10显示抓取错误
curl -f http://www.zuiyoujie.com/error
2.11.其他参数
-a/--append 上传文件时,附加到目标文件
--anyauth 可以使用“任何”身份验证方法
--basic 使用HTTP基本验证
-B/--use-ascii 使用ASCII文本传输
-d/--data <data> HTTP POST方式传送数据
--data-ascii <data> 以ascii的方式post数据
--data-binary <data> 以二进制的方式post数据
--negotiate 使用HTTP身份验证
--digest 使用数字身份验证
--disable-eprt 禁止使用EPRT或LPRT
--disable-epsv 禁止使用EPSV
--egd-file <file> 为随机数据(SSL)设置EGD socket路径
--tcp-nodelay 使用TCP_NODELAY选项
-E/--cert <cert[:passwd]> 客户端证书文件和密码 (SSL)
--cert-type <type> 证书文件类型 (DER/PEM/ENG) (SSL)
--key <key> 私钥文件名 (SSL)
--key-type <type> 私钥文件类型 (DER/PEM/ENG) (SSL)
--pass <pass> 私钥密码 (SSL)
--engine <eng> 加密引擎使用 (SSL). "--engine list" for list
--cacert <file> CA证书 (SSL)
--capath <directory> CA目 (made using c_rehash) to verify peer against (SSL)
--ciphers <list> SSL密码
--compressed 要求返回是压缩的形势 (using deflate or gzip)
--connect-timeout <seconds> 设置最大请求时间
--create-dirs 建立本地目录的目录层次结构
--crlf 上传是把LF转变成CRLF
--ftp-create-dirs 如果远程目录不存在,创建远程目录
--ftp-method [multicwd/nocwd/singlecwd] 控制CWD的使用
--ftp-pasv 使用 PASV/EPSV 代替端口
--ftp-skip-pasv-ip 使用PASV的时候,忽略该IP地址
--ftp-ssl 尝试用 SSL/TLS 来进行ftp数据传输
--ftp-ssl-reqd 要求用 SSL/TLS 来进行ftp数据传输
-F/--form <name=content> 模拟http表单提交数据
-form-string <name=string> 模拟http表单提交数据
-g/--globoff 禁用网址序列和范围使用{}和[]
-G/--get 以get的方式来发送数据
-h/--help 帮助
-H/--header <line> 自定义头信息传递给服务器
--ignore-content-length 忽略的HTTP头信息的长度
-i/--include 输出时包括protocol头信息
-I/--head 只显示文档信息
-j/--junk-session-cookies 读取文件时忽略session cookie
--interface <interface> 使用指定网络接口/地址
--krb4 <level> 使用指定安全级别的krb4
-k/--insecure 允许不使用证书到SSL站点
-K/--config 指定的配置文件读取
-l/--list-only 列出ftp目录下的文件名称
--limit-rate <rate> 设置传输速度
--local-port<NUM> 强制使用本地端口号
-m/--max-time <seconds> 设置最大传输时间
--max-redirs <num> 设置最大读取的目录数
--max-filesize <bytes> 设置最大下载的文件总量
-M/--manual 显示全手动
-n/--netrc 从netrc文件中读取用户名和密码
--netrc-optional 使用 .netrc 或者 URL来覆盖-n
--ntlm 使用 HTTP NTLM 身份验证
-N/--no-buffer 禁用缓冲输出
-p/--proxytunnel 使用HTTP代理
--proxy-anyauth 选择任一代理身份验证方法
--proxy-basic 在代理上使用基本身份验证
--proxy-digest 在代理上使用数字身份验证
--proxy-ntlm 在代理上使用ntlm身份验证
-P/--ftp-port <address> 使用端口地址,而不是使用PASV
-Q/--quote <cmd> 文件传输前,发送命令到服务器
--range-file 读取(SSL)的随机文件
-R/--remote-time 在本地生成文件时,保留远程文件时间
--retry <num> 传输出现问题时,重试的次数
--retry-delay <seconds> 传输出现问题时,设置重试间隔时间
--retry-max-time <seconds> 传输出现问题时,设置最大重试时间
-S/--show-error 显示错误
--socks4 <host[:port]> 用socks4代理给定主机和端口
--socks5 <host[:port]> 用socks5代理给定主机和端口
-t/--telnet-option <OPT=val> Telnet选项设置
--trace <file> 对指定文件进行debug
--trace-ascii <file> Like --跟踪但没有hex输出
--trace-time 跟踪/详细输出时,添加时间戳
--url <URL> Spet URL to work with
-U/--proxy-user <user[:password]> 设置代理用户名和密码
-V/--version 显示版本信息
-X/--request <command> 指定什么命令
-y/--speed-time 放弃限速所要的时间。默认为30
-Y/--speed-limit 停止传输速度的限制,速度时间'秒
-z/--time-cond 传送时间设置
-0/--http1.0 使用HTTP 1.0
-1/--tlsv1 使用TLSv1(SSL)
-2/--sslv2 使用SSLv2的(SSL)
-3/--sslv3 使用的SSLv3(SSL)
--3p-quote like -Q for the source URL for 3rd party transfer
--3p-url 使用url,进行第三方传送
--3p-user 使用用户名和密码,进行第三方传送
-4/--ipv4 使用IP4
-6/--ipv6 使用IP6
作者:天生帅才 www.zuiyoujie.com
本文版权归作者和博客园共有,如果感觉有用可以随意打赏,感谢支持,欢迎转载