linux-cmd-curl

linux-cmd-curl

  • 参考地址:

https://www.cnblogs.com/duhuo/p/5695256.html
http://linux.51yip.com/search/curl
https://stackoverflow.com/questions/356705/how-to-send-a-header-using-a-http-request-through-a-curl-call

1.curl 用法

  • curl是一个利用URL规则在命令行下工作的文件传输工具。

  • curl 可以通过网络将信息传递给服务器或者从服务器获取数据

  • 他支持很多的传输协议,尤其是HTTP/HTTPS以及其他诸如FTP/FTPS, RTSP, POP3/POP3S, SCP, IMAP/IMAPS协议等。

  • 当你使用curl向一个URL发送HTTP请求的时候,它会使用一个默认只包含必要的头部字段(如:User-Agent, Host, and Accept)的HTTP头。

  • 常用参数如下:

-A/--user-agent                   设置用户代理发送给服务器
-b/--cookie <name=string/file>    cookie字符串或文件读取位置
-c/--cookie-jar <file>            将cookie写入到文件
-C/--continue-at <offset>         断点续转
-d/–-data                         http post方式传送数据,可以指定 json 字符串或者 json 文件(格式:@文件名)
-D/--dump-header <file>           把header信息写入到文件
-e/–-referer                      设置 "Referer" 字段,指定引用地址
-f/--fail                         连接失败时不显示http错误
-F/–-from                         模拟http表达提交数据
-i/--include                      在返回信息中包含协议头
-I/--head                         仅返回头部信息
-o/--output                       下载文件,可以指定文件名
-O/--remote-name                  下载文件,使用远程文件名保存
-r/--range <range>                检索来自HTTP/1.1或FTP服务器字节范围
-T/--upload-file <file>           上传文件
-u/–-user [user:pass]             用于网页需要登录的,设置http认证用户和密码
-w/–-write-out [format]           输出指定格式内容
-x/--proxy <host[:port]>          指定代理服务器地址和端口
-#/--progress-bar                 进度条显示当前的传送状态
-s/--silent                       静默请求,不输出返回信息
-v                                返回站点的头信息
–-retry                           重试次数
–-connect-timeout                 指定连接超时时间,单位为秒

2.curl 常用用法

2.1.使用 -o 访问站点下载网页

  • 命令示例
# 打开站点,使用默认参数
curl www.zuiyoujie.com

# 保存网页,静默下载,不显示下载信息,如果有乱码可以使用 iconv 转码
curl -s www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.1
curl -s www.zuiyoujie.com >> /tmp/www.zuiyoujie.com.html.2
curl -s -v www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.3 |iconv -f utf-8 

# 下载网页,显示头信息
curl -s -v www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.4

# 下载文件
curl -O http://www.zuiyoujie.com/hello.sh

# 循环下载
curl -O http://www.zuiyoujie.com/hello[1-5].JPG

# 下载重命名
curl -O http://www.zuiyoujie.com/{hello,bb}/filename[1-5].JPG
正常情况下由于下载的 hello 与 bb 中的文件名都是filename1,filename2,filename3,filename4,filename5。因此第二次下载的会把第一次下载的覆盖,这样就需要对文件进行重命名。

curl -o #1_#2.JPG http://www.zuiyoujie.com/{hello,bb}/filename[1-5].JPG
这样在 hello/filename 的文件下载下来就会变成 hello_filename,其他文件依此类推,从而有效的避免了文件被覆盖

# 分块下载-有时候下载的东西会比较大,这个时候我们可以分段下载。使用内置option:-r
curl -r 0-100 -o filename1_part1.JPG http://www.zuiyoujie.com/filename
curl -r 100-200 -o filename1_part2.JPG http://www.zuiyoujie.com/filename
curl -r 200- -o filename1_part3.JPG http://www.zuiyoujie.com/filename
cat filename1_part* > filename
  • 实例演示
# 打开站点,使用默认参数
root@zuiyoujie:/opt/tools# curl www.zuiyoujie.com
<!DOCTYPE html>
<html>
    <head>
        <meta charset="utf-8">
        <title></title>
        <style media="screen">
            * {
                margin: 0;
                padding: 0;
            }
        </style>
    </head>
    <body>
    </body>
    <script type="text/javascript">
        window.location.href="http://www.cnblogs.com/tssc";
    </script>
</html>
------------------------------

# 下载网页,静默下载,不显示下载信息
root@zuiyoujie:/opt/tools# curl -s www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.1
root@zuiyoujie:/opt/tools# curl -s www.zuiyoujie.com >> /tmp/www.zuiyoujie.com.html.2
root@zuiyoujie:/opt/tools# curl -s www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.3 |iconv -f utf-8

# 下载网页,显示头信息
root@zuiyoujie:/opt/tools# curl -s -v www.zuiyoujie.com -o /tmp/www.zuiyoujie.com.html.4
* Rebuilt URL to: www.zuiyoujie.com/
*   Trying 185.199.108.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.108.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: curl/7.58.0
> Accept: */*
> ......省略

----------------------------
root@zuiyoujie:/opt/tools# ll /tmp/www.zuiyoujie.com*
-rw-r--r-- 1 root root 375 Apr 26 17:33 /tmp/www.zuiyoujie.com.html.1
-rw-r--r-- 1 root root 375 Apr 26 17:34 /tmp/www.zuiyoujie.com.html.2
-rw-r--r-- 1 root root 375 Apr 26 17:34 /tmp/www.zuiyoujie.com.html.3
-rw-r--r-- 1 root root 375 Apr 26 17:35 /tmp/www.zuiyoujie.com.html.4

2.2.获取 HTTP 响应头 headers

  • 命令示例
# 使用 -w 获取网页返回值
curl -s -w %{http_code} www.zuiyoujie.com  -o /dev/null

# 获取网页 headers
curl -I http://www.zuiyoujie.com

# 获取网页 headers(HTTP 的 response) 并保存到文件中
curl http://www.zuiyoujie.com -D /tmp/header.txt.1
curl -s -I http://www.zuiyoujie.com > /tmp/header.txt.2

# 获取网页 head 信息与网页内容
curl -v http://www.zuiyoujie.com
  • 实例演示
------------------------------
root@zuiyoujie:/opt/tools# curl -o /dev/null -s -w %{http_code} www.zuiyoujie.com
200

------------------------------
root@zuiyoujie:/opt/tools# curl -I http://www.zuiyoujie.com
HTTP/1.1 200 OK
Server: GitHub.com
Content-Type: text/html; charset=utf-8
Last-Modified: Wed, 20 Jun 2018 08:02:19 GMT
Access-Control-Allow-Origin: *
ETag: "5b2a0a0b-177"
expires: Mon, 26 Apr 2021 09:23:58 GMT
Cache-Control: max-age=600
x-proxy-cache: MISS
X-GitHub-Request-Id: 7A26:0F88:6ADFC0:72C8D3:60868456
Content-Length: 375
Accept-Ranges: bytes
Date: Mon, 26 Apr 2021 10:20:34 GMT
Via: 1.1 varnish
Age: 0
Connection: keep-alive
X-Served-By: cache-hnd18737-HND
X-Cache: HIT
X-Cache-Hits: 1
X-Timer: S1619432435.524239,VS0,VE153
Vary: Accept-Encoding
X-Fastly-Request-ID: 74d7eca5d9f3ca696fb974add49a1ca1ec6d90f8

------------------------------
root@zuiyoujie:/opt/tools# curl -v http://www.zuiyoujie.com
* Rebuilt URL to: http://www.zuiyoujie.com/
*   Trying 185.199.110.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.110.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: curl/7.58.0
> Accept: */*
> 
< HTTP/1.1 200 OK
< Server: GitHub.com
< Content-Type: text/html; charset=utf-8
< Last-Modified: Wed, 20 Jun 2018 08:02:19 GMT
< Access-Control-Allow-Origin: *
< ETag: "5b2a0a0b-177"
< expires: Mon, 26 Apr 2021 09:23:58 GMT
< Cache-Control: max-age=600
< x-proxy-cache: MISS
< X-GitHub-Request-Id: 7A26:0F88:6ADFC0:72C8D3:60868456
< Content-Length: 375
< Accept-Ranges: bytes
< Date: Mon, 26 Apr 2021 10:20:45 GMT
< Via: 1.1 varnish
< Age: 10
< Connection: keep-alive
< X-Served-By: cache-hnd18738-HND
< X-Cache: HIT
< X-Cache-Hits: 1
< X-Timer: S1619432445.121974,VS0,VE0
< Vary: Accept-Encoding
< X-Fastly-Request-ID: 1eccd14cba17ab4f67243cdec3229ddfbd9ab333
< 
<!DOCTYPE html>
<html>
    <head>
        <meta charset="utf-8">
        <title></title>
        <style media="screen">
            * {
                margin: 0;
                padding: 0;
            }
        </style>
    </head>
    <body>
    </body>
    <script type="text/javascript">
        window.location.href="http://www.cnblogs.com/tssc";
    </script>
</html>
* Connection #0 to host www.zuiyoujie.com left intact

----------------------------
root@zuiyoujie:/opt/tools# curl http://www.zuiyoujie.com -D /tmp/header.txt.1
curl -s -I http://www.zuiyoujie.com > /tmp/header.txt.2
<!DOCTYPE html>
<html>
    <head>
        <meta charset="utf-8">
        <title></title>
        <style media="screen">
            * {
                margin: 0;
                padding: 0;
            }
        </style>
    </head>
    <body>
    </body>
    <script type="text/javascript">
        window.location.href="http://www.cnblogs.com/tssc";
    </script>
</html>

--------------------------------
root@zuiyoujie:/opt/tools# curl -s -I http://www.zuiyoujie.com > /tmp/header.txt.2

root@zuiyoujie:/opt/tools# ll /tmp/header.txt*
-rw-r--r-- 1 root root 642 Apr 26 18:26 /tmp/header.txt.1
-rw-r--r-- 1 root root 640 Apr 26 18:26 /tmp/header.txt.2

2.3.使用 -x 代理上网

  • 通过 -x 来支持设置代理,指定proxy服务器以及其端口,可以用于跳过黑名单屏蔽
  • 命令示例
curl -x 192.168.100.100:1080 http://www.zuiyoujie.com
  • curl 在访问网站是可以模拟 cookie 用于记录 session 信息
  • 也可以使用 -H 修改请求头
  • 命令示例
curl -v -b 'Cookie: ID=1234' www.zuiyoujie.com
curl -v -b cookie.txt www.zuiyoujie.com
curl -v --cookie 'Cookie: ID=1234' www.zuiyoujie.com
  • 实例演示
root@zuiyoujie:/opt/tools# curl -b 'Cookie: ID=1234' -v www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
*   Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: curl/7.58.0
> Accept: */*
> Cookie: Cookie: ID=1234
> ......省略
  • 命令示例
# 保存 cookie 到文件
curl www.zuiyoujie.com -c /tmp/cookie-c.txt

# 保存 http 的 response 里面的 header 信息
curl www.zuiyoujie.com -D /tmp/cookie-d.txt
  • 注意:-c 产生的 cookie 和 -D 里面的 cookie 是不一样的

2.4.使用 -A 修改浏览器头 user-agent

  • 重写 User-Agent 字符串来假冒特定浏览器以解决一些访问限制的问题
  • 有些网站需要使用特定的浏览器去访问他们,有些还需要使用某些特定的版本。curl内置 option:-A 可以让我们模拟指定浏览器去访问网站
  • 命令示例
# 使用 -A 修改请求头
curl -v -A "zuiyoujie" www.zuiyoujie.com

# 其他示例
curl -v -A 'Mozilla/4.0 (compatible;MSIE 6.0; Windows NT 5.0)' www.zuiyoujie.com
curl -v -A 'Mozilla/4.0 (compatible;MSIE 6.0; <a href="http://www.ttlsa.com/windows/" title="windows"target="_blank">Windows</a> NT 5.0)' www.zuiyoujie.com
  • 实例演示
root@zuiyoujie:/opt/tools# curl -A "zuiyoujie" -v www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
*   Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: zuiyoujie
> Accept: */*
> ......省略

-----------------------------
root@zuiyoujie:/opt/tools# curl -A 'Mozilla/4.0 (compatible;MSIE 6.0; Windows NT 5.0)' -v www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
*   Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> User-Agent: Mozilla/4.0 (compatible;MSIE 6.0; Windows NT 5.0)
> Accept: */*
> ......省略

2.3.使用 -H 单独或者批量修改 head 请求头

  • 对于 "User-Agent", "Cookie", "Host" 这类标准的HTTP头部字段,可以使用专门的参数

2.3.1.定义多个 HTTP 头部字段

  • -H 选项可以在 curl 命令中被多次指定,格式: -H "key1: value1" -H "key2: value2"
  • 自定义的 http 头,需要加在标准头后面
  • wget是另外一个类似于curl,可以用来获取URL的命令行工具。并且wget也一样允许你使用一个自定义的HTTP头。
  • 命令示例
# 使用 -H 修改 http 请求头
curl -v -H "User-Agent: zuiyoujie" www.zuiyoujie.com
curl -v -H 'Cookie: ID=1234' www.zuiyoujie.com

# 定义多个 HTTP 头部字段,重写了“HOST”字段,并且添加了两个字段("Accept-Language" 和 "Cookie")
curl -v -H 'Host: 1.2.3.4' -H 'Accept-Language: es' -H 'Cookie: ID=1234' www.zuiyoujie.com
  • 实例演示
-----------------------------
root@zuiyoujie:/opt/tools# curl -v -H "User-Agent: zuiyoujie" www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
*   Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: www.zuiyoujie.com
> Accept: */*
> User-Agent: zuiyoujie
> ......省略

------------------------------
root@zuiyoujie:/opt/tools# curl -v -H 'Host: 1.2.3.4' -H 'Accept-Language: es' -H 'Cookie: ID=1234' www.zuiyoujie.com
* Rebuilt URL to: www.zuiyoujie.com/
*   Trying 185.199.111.153...
* TCP_NODELAY set
* Connected to www.zuiyoujie.com (185.199.111.153) port 80 (#0)
> GET / HTTP/1.1
> Host: 1.2.3.4
> User-Agent: curl/7.58.0
> Accept: */*
> Accept-Language: es
> Cookie: ID=1234
> 
< HTTP/1.1 404 Not Found
< Server: GitHub.com
< Content-Type: text/html; charset=utf-8
< ETag: "5f7b904d-239b"
< Content-Security-Policy: default-src 'none'; style-src 'unsafe-inline'; img-src data:; connect-src 'self'
< X-GitHub-Request-Id: 5D5C:1749:13CBA6:15368C:60868C40
< Content-Length: 9115
< Accept-Ranges: bytes
< Date: Mon, 26 Apr 2021 09:47:44 GMT
< Via: 1.1 varnish
< Age: 0
< Connection: keep-alive
< X-Served-By: cache-hnd18730-HND
< X-Cache: MISS
< X-Cache-Hits: 0
< X-Timer: S1619430464.326282,VS0,VE157
< Vary: Accept-Encoding
< X-Fastly-Request-ID: 2adfeaf5b91d1fe5456b5a0dd4c2122bbf56a1cf
< 
<!DOCTYPE html>
......省略
</html>
* Connection #0 to host www.zuiyoujie.com left intact> 
------------------------------

2.3.2.使用文件发送 post 请求

# with JSON:
curl -i -X POST -H "Accept: application/json" -H "Content-Type: application/json" http://www.zuiyoujie.com
curl -i -X POST -d @status.json http://www.zuiyoujie.com

# with XML:
curl -H "Accept: application/xml" -H "Content-Type: application/xml" -X GET http://www.zuiyoujie.com

# 需要注意的是,json数据里变量要用''括起来
atime=`date -d "$1" +%s`
btime=`date -d "$2" +%s`
curl -i -X POST -H "'Content-type':'application/json'" -d '{"ATime":"'$atime'","BTime":"'$btime'"}' $url

2.4.其他常用参数

# For posting data:
curl --data "param1=value1&param2=value2" http://www.zuiyoujie.com/resource

# For file upload:
curl --form "fileupload=@filename.txt" http://www.zuiyoujie.com/resource

# RESTful HTTP Post:
curl -X POST -d @filename http://www.zuiyoujie.com/resource

2.5.处理重定向页面

curl –L http://192.168.1.100/301.<a href="http://www.ttlsa.com/php/" title="php"target="_blank">php</a> #默认curl是不处理重定向

curl –L http://192.168.1.100/301.php #默认curl是不处理重定向

2.6.模拟用户登陆

  • 保存 cookie 信息到 cookies.txt 文件,再使用 cookie 登陆
curl –u user:pass www.zuiyoujie.com

# NAME和PWD是表单属性,每个网站基本都不同
curl -c ./cookies.txt -F NAME=user -F PWD=***URL
curl -b ./cookies.txt –o URL

# For logging into a site (auth):
curl -d "username=admin&password=admin&submit=Login" --dump-header headers http://www.zuiyoujie.com/Login
curl -L -b headers http://localhost/

2.7.伪造 referer(盗链)

  • 很多服务器会检查http访问的referer从而来控制访问。比如:你是先访问首页,然后再访问首页中的邮箱页面,这里访问邮箱的referer地址就是访问首页成功后的页面地址,如果服务器发现对邮箱页面访问的referer地址不是首页的地址,就断定那是个盗连了
  • curl中内置 option:-e 可以让我们设定referer
curl -e "www.zuiyoujie.com" http://mail.zuiyoujie.com
这样就会让服务器其以为你是从 www.zuiyoujie.com 点击某个链接过来的

2.8.通过 ftp 上传和下载文件

  • curl可以通过ftp下载文件,curl提供两种从ftp中下载的语法
# 上传
curl -T filename ftp://user:pass@ftp.zuiyoujie.com/docs

# 下载
curl -O ftp://user:pass@ftp.zuiyoujie.com/filename 
curl -O -u 用户名:密码 ftp://ftp.zuiyoujie.com/filename 

# 显示下载进度条
curl -# -O http://ftp.zuiyoujie.com/filename 

# 不会显示下载进度信息
curl -s -O http://ftp.zuiyoujie.com/filename 

2.9.断点续传

  • curl 可以通过内置 option:-C 同样可以达到相同的效果
  • 如果在下载 filename 的过程中突然掉线了,可以使用以下的方式续传
curl -C -O http://ftp.zuiyoujie.com/filename

2.10显示抓取错误

curl -f http://www.zuiyoujie.com/error

2.11.其他参数

-a/--append                        上传文件时,附加到目标文件
--anyauth                            可以使用“任何”身份验证方法
--basic                                使用HTTP基本验证
-B/--use-ascii                      使用ASCII文本传输
-d/--data <data>                  HTTP POST方式传送数据
--data-ascii <data>            以ascii的方式post数据
--data-binary <data>          以二进制的方式post数据
--negotiate                          使用HTTP身份验证
--digest                        使用数字身份验证
--disable-eprt                  禁止使用EPRT或LPRT
--disable-epsv                  禁止使用EPSV
--egd-file <file>              为随机数据(SSL)设置EGD socket路径
--tcp-nodelay                  使用TCP_NODELAY选项
-E/--cert <cert[:passwd]>      客户端证书文件和密码 (SSL)
--cert-type <type>              证书文件类型 (DER/PEM/ENG) (SSL)
--key <key>                    私钥文件名 (SSL)
--key-type <type>              私钥文件类型 (DER/PEM/ENG) (SSL)
--pass  <pass>                  私钥密码 (SSL)
--engine <eng>                  加密引擎使用 (SSL). "--engine list" for list
--cacert <file>                CA证书 (SSL)
--capath <directory>            CA目   (made using c_rehash) to verify peer against (SSL)
--ciphers <list>                SSL密码
--compressed                    要求返回是压缩的形势 (using deflate or gzip)
--connect-timeout <seconds>    设置最大请求时间
--create-dirs                  建立本地目录的目录层次结构
--crlf                          上传是把LF转变成CRLF
--ftp-create-dirs              如果远程目录不存在,创建远程目录
--ftp-method [multicwd/nocwd/singlecwd]    控制CWD的使用
--ftp-pasv                      使用 PASV/EPSV 代替端口
--ftp-skip-pasv-ip              使用PASV的时候,忽略该IP地址
--ftp-ssl                      尝试用 SSL/TLS 来进行ftp数据传输
--ftp-ssl-reqd                  要求用 SSL/TLS 来进行ftp数据传输
-F/--form <name=content>        模拟http表单提交数据
-form-string <name=string>      模拟http表单提交数据
-g/--globoff                    禁用网址序列和范围使用{}和[]
-G/--get                        以get的方式来发送数据
-h/--help                      帮助
-H/--header <line>              自定义头信息传递给服务器
--ignore-content-length        忽略的HTTP头信息的长度
-i/--include                    输出时包括protocol头信息
-I/--head                      只显示文档信息
-j/--junk-session-cookies      读取文件时忽略session cookie
--interface <interface>        使用指定网络接口/地址
--krb4 <level>                  使用指定安全级别的krb4
-k/--insecure                  允许不使用证书到SSL站点
-K/--config                    指定的配置文件读取
-l/--list-only                  列出ftp目录下的文件名称
--limit-rate <rate>            设置传输速度
--local-port<NUM>              强制使用本地端口号
-m/--max-time <seconds>        设置最大传输时间
--max-redirs <num>              设置最大读取的目录数
--max-filesize <bytes>          设置最大下载的文件总量
-M/--manual                    显示全手动
-n/--netrc                      从netrc文件中读取用户名和密码
--netrc-optional                使用 .netrc 或者 URL来覆盖-n
--ntlm                          使用 HTTP NTLM 身份验证
-N/--no-buffer                  禁用缓冲输出
-p/--proxytunnel                使用HTTP代理
--proxy-anyauth                选择任一代理身份验证方法
--proxy-basic                  在代理上使用基本身份验证
--proxy-digest                  在代理上使用数字身份验证
--proxy-ntlm                    在代理上使用ntlm身份验证
-P/--ftp-port <address>        使用端口地址,而不是使用PASV
-Q/--quote <cmd>                文件传输前,发送命令到服务器
--range-file                    读取(SSL)的随机文件
-R/--remote-time                在本地生成文件时,保留远程文件时间
--retry <num>                  传输出现问题时,重试的次数
--retry-delay <seconds>        传输出现问题时,设置重试间隔时间
--retry-max-time <seconds>      传输出现问题时,设置最大重试时间
-S/--show-error                显示错误
--socks4 <host[:port]>          用socks4代理给定主机和端口
--socks5 <host[:port]>          用socks5代理给定主机和端口
-t/--telnet-option <OPT=val>    Telnet选项设置
--trace <file>                  对指定文件进行debug
--trace-ascii <file>            Like --跟踪但没有hex输出
--trace-time                    跟踪/详细输出时,添加时间戳
--url <URL>                    Spet URL to work with
-U/--proxy-user <user[:password]>  设置代理用户名和密码
-V/--version                    显示版本信息
-X/--request <command>          指定什么命令
-y/--speed-time                放弃限速所要的时间。默认为30
-Y/--speed-limit                停止传输速度的限制,速度时间'秒
-z/--time-cond                  传送时间设置
-0/--http1.0                    使用HTTP 1.0
-1/--tlsv1                      使用TLSv1(SSL)
-2/--sslv2                      使用SSLv2的(SSL)
-3/--sslv3                      使用的SSLv3(SSL)
--3p-quote                      like -Q for the source URL for 3rd party transfer
--3p-url                        使用url,进行第三方传送
--3p-user                      使用用户名和密码,进行第三方传送
-4/--ipv4                      使用IP4
-6/--ipv6                      使用IP6
posted @ 2023-05-17 15:25  天生帅才  阅读(67)  评论(0编辑  收藏  举报
// 百度统计