美文网首页
2019-02-22

2019-02-22

作者: 睿的企鹅 | 来源:发表于2019-03-01 22:28 被阅读0次


    Linux curl  常见用法

    1.获取页面内容;

    2. 显示 HTTP 头;

    3. 将链接保存到文件;

    4. 同时下载多个文件;

    5. 使用 -L 跟随链接重定向;

    6. 使用 -A 自定义 User-Agent;

    7. 使用 -H 自定义 header;

    8. 使用 -c 保存 Cookie;

    9. 使用 -b 读取 Cookie;

    10. 使用 -d 发送 POST 请求

    11.下载文件

    1.获取页面内容

    当我们不加任何选项使用 curl 时,默认会发送 GET 请求来获取链接内容到标准输出。

    $ curl www.baidu.com

    <!DOCTYPE html>

    <!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8><meta http-equiv=X-UA-Compatible content=IE=Edge><meta content=always name=referrer><link rel=stylesheet type=text/css href=http://s1.bdstatic.com/r/www/cache/bdorz/baidu.min.css><title>百度一下,你就知道</title></head> <body link=#0000cc> <div id=wrapper> <div id=head> <div class=head_wrapper> <div class=s_form> <div class=s_form_wrapper> <div id=lg> <img hidefocus=true src=//www.baidu.com/img/bd_logo1.png width=270 height=129> </div> <form id=form name=f action=//www.baidu.com/s class=fm> <input type=hidden name=bdorz_come value=1> <input type=hidden name=ie value=utf-8> <input type=hidden name=f value=8> <input type=hidden name=rsv_bp value=1> <input type=hidden name=rsv_idx value=1> <input type=hidden name=tn value=baidu><span class="bg s_ipt_wr"><input id=kw name=wd class=s_ipt value maxlength=255 autocomplete=off autofocus></span><span class="bg s_btn_wr"><input type=submit id=su value=百度一下 class="bg s_btn"></span> </form> </div> </div> <div id=u1> <a href=http://news.baidu.com name=tj_trnews class=mnav>新闻</a> <a href=http://www.hao123.com name=tj_trhao123 class=mnav>hao123</a> <a href=http://map.baidu.com name=tj_trmap class=mnav>地图</a> <a href=http://v.baidu.com name=tj_trvideo class=mnav>视频</a> <a href=http://tieba.baidu.com name=tj_trtieba class=mnav>贴吧</a> <noscript> <a href=http://www.baidu.com/bdorz/login.gif?login&amp;tpl=mn&amp;u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1 name=tj_login class=lb>登录</a> </noscript> <script>document.write('<a href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u='+ encodeURIComponent(window.location.href+ (window.location.search === "" ? "?" : "&")+ "bdorz_come=1")+ '" name="tj_login" class="lb">登录</a>');</script> <a href=//www.baidu.com/more/ name=tj_briicon class=bri style="display: block;">更多产品</a> </div> </div> </div> <div id=ftCon> <div id=ftConw> <p id=lh> <a href=http://home.baidu.com>关于百度</a> <a href=http://ir.baidu.com>About Baidu</a> </p> <p id=cp>&copy;2017&nbsp;Baidu&nbsp;<a href=http://www.baidu.com/duty/>使用百度前必读</a>&nbsp; <a href=http://jianyi.baidu.com/ class=cp-feedback>意见反馈</a>&nbsp;京ICP证030173号&nbsp; <img src=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>

    2. 显示 HTTP 头

    使用 -I (大写i)选项:

    $ curl -I www.baidu.com

    HTTP/1.1 200 OK

    Accept-Ranges: bytes

    Cache-Control: private, no-cache, no-store, proxy-revalidate, no-transform

    Connection: Keep-Alive

    Content-Length: 277

    Content-Type: text/html

    Date: Fri, 01 Mar 2019 14:00:29 GMT

    Etag: "575e1f6f-115"

    Last-Modified: Mon, 13 Jun 2016 02:50:23 GMT

    Pragma: no-cache

    Server: bfe/1.0.8.18

    同时显示 HTTP 头和文件内容,使用 -i 选项:

    3. 将链接保存到文件

    ~$ curl www.baidu.com > baidu.html

    4. 同时下载多个文件

    使用 -o 或 -O 选项来同时指定多个链接,按照以下格式编写命令:

    curl -O page1 http://www.xxxx.com/page/1/ -O http://www.xxxx.com/page/2/

    or

    curl -o page1.html http://www.xxxx.com/page/1/ -o page2.html http://www.xxxx.com/page/2/

    5. 使用 -L 跟随链接重定向

    如果直接使用 curl 打开某些被重定向后的链接,这种情况下就无法获取我们想要的网页内容,可以:

    curl -L http://example.com

    6. 使用 -A 自定义 User-Agent

    使用 -A 来自定义用户代理,例如下面的命令将伪装成安卓火狐浏览器对网页进行请求:

    curl -A “Mozilla/5.0 (Android; Mobile; rv:35.0) Gecko/35.0 Firefox/35.0”http://www.baidu.com

    7. 使用 -H 自定义 header

    当我们需要传递特定的 header 的时候,可以仿照以下命令来写: curl -H “Referer: www.example.com” -H “User-Agent: Custom-User-Agent” http://www.baidu.com 可以看到,当我们使用 -H 来自定义 User-Agent 时,需要使用 “User-Agent: xxx” 的格式。我们能够直接在 header 中传递 Cookie,格式与上面的例子一样: curl -H “Cookie: JSESSIONID=D0112A5063D938586B659EF8F939BE24” http://www.example.com

    8. 使用 -c 保存 Cookie

    当我们使用 cURL 访问页面的时候,默认是不会保存 Cookie 的。有些情况下我们希望保存 Cookie 以便下次访问时使用。例如登陆了某个网站,我们希望再次访问该网站时保持登陆的状态,这时就可以现将登陆时的 Cookie 保存起来,下次访问时再读取。

    -c 后面跟上要保存的文件名。

    curl -c “cookie-example”http://www.example.com

    9. 使用 -b 读取 Cookie

    前面讲到了使用 -H 来发送 Cookie 的方法,这种方式是直接将 Cookie 字符串写在命令中。如果使用 -b 来自定义 Cookie,命令如下:

    curl -b “JSESSIONID=D0112A5063D938586B659EF8F939BE24”http://www.example.com

    如果要从文件中读取 Cookie,-H 就无能为力了,此时可以使用 -b 来达到这一目的:

    curl -b “cookie-example”http://www.example.com

    即 -b 后面既可以是 Cookie 字符串,也可以是保存了 Cookie 的文件名。

    10.使用 -d 发送 POST 请求

    我们以登陆网页为例来进行说明使用 cURL 发送 POST 请求的方法。假设有一个登录页面 www.example.com/login,只需要提交用户名和密码便可登录。我们可以使用 cURL 来完成这一 POST 请求,-d 用于指定发送的数据,-X 用于指定发送数据的方式:

    curl -d “userName=tom&passwd=123456” -X POSThttp://www.example.com/login

    在使用 -d 的情况下,如果省略 -X,则默认为 POST 方式:

    curl -d “userName=tom&passwd=123456”http://www.example.com/login

    强制使用 GET 方式

    发送数据时,不仅可以使用 POST 方式,也可以使用 GET 方式,例如:

    curl -d “somedata” -X GEThttp://www.example.com/api

    或者使用 -G 选项:

    curl -d “somedata” -Ghttp://www.example.com/api

    从文件中读取 data

    curl -d “@data.txt”http://www.example.com/login

    带 Cookie 登录

    当然,如果我们再次访问该网站,仍然会变成未登录的状态。我们可以用之前提到的方法保存 Cookie,在每次访问网站时都带上该 Cookie 以保持登录状态。

    curl -c “cookie-login” -d “userName=tom&passwd=123456”http://www.example.com/login

    再次访问该网站时,使用以下命令:

    curl -b “cookie-login”http://www.example.com/login

    这样,就能保持访问的是登录后的页面了

    11. 下载文件


    11.1:利用curl下载文件。

    #使用内置option:-o(小写)

    # curl -o dodo1.jpg http:www.example.com/dodo1.JPG

    #使用内置option:-O(大写)

    curl -O http:www.example.com/dodo1.JPG

    11.2:循环下载

    有时候下载图片可以能是前面的部分名称是一样的,就最后的尾椎名不一样

    # curl -O http://www.linux.com/dodo[1-5].JPG

    这样就会把dodo1,dodo2,dodo3,dodo4,dodo5全部保存下来

    11.3 分块下载

    有时候下载的东西会比较大,这个时候我们可以分段下载。使用内置option:-r

    # curl -r 0-100 -o dodo1_part1.JPG http://www.linux.com/dodo1.JPG

    # curl -r 100-200 -o dodo1_part2.JPG http://www.linux.com/dodo1.JPG

    # curl -r 200- -o dodo1_part3.JPG http://www.linux.com/dodo1.JPG

    # cat dodo1_part* > dodo1.JPG

    11.4 通过ftp下载文件

    curl可以通过ftp下载文件,curl提供两种从ftp中下载的语法

    # curl -O -u 用户名:密码 ftp://www.linux.com/dodo1.JPG

    # curl -O ftp://用户名:密码@www.linux.com/dodo1.JPG

    11.5 显示下载进度条

    # curl -# -O http://www.linux.com/dodo1.JPG

    11.6 不显示下载进度条

    # curl -s -O http://www.linux.com/dodo1.JPG

    11.7 断点续传

    在windows中,我们可以使用迅雷这样的软件进行断点续传。curl可以通过内置option:-C同样可以达到相同的效果如果在下载dodo1.JPG的过程中突然掉线了,可以使用以下的方式续传

    # curl -C -O http://www.linux.com/dodo1.JPG

    11.8 上传文件

    curl不仅仅可以下载文件,还可以上传文件。通过内置option:-T来实现

    # curl -T dodo1.JPG -u 用户名:密码 ftp://www.linux.com/img/

    其它参数:

    -a/--append 上传文件时,附加到目标文件

    --anyauth                            可以使用“任何”身份验证方法

    --basic                                使用HTTP基本验证

    -B/--use-ascii                      使用ASCII文本传输

    -d/--data <data>                  HTTP POST方式传送数据

    --data-ascii <data>            以ascii的方式post数据

    --data-binary <data>          以二进制的方式post数据

    --negotiate                          使用HTTP身份验证

    --digest                        使用数字身份验证

    --disable-eprt                  禁止使用EPRT或LPRT

    --disable-epsv                  禁止使用EPSV

    --egd-file <file>              为随机数据(SSL)设置EGD socket路径

    --tcp-nodelay                  使用TCP_NODELAY选项

    -E/--cert <cert[:passwd]>      客户端证书文件和密码 (SSL)

    --cert-type <type>              证书文件类型 (DER/PEM/ENG) (SSL)

    --key <key>                    私钥文件名 (SSL)

    --key-type <type>              私钥文件类型 (DER/PEM/ENG) (SSL)

    --pass  <pass>                  私钥密码 (SSL)

    --engine <eng>                  加密引擎使用 (SSL). "--engine list" for list

    --cacert <file>                CA证书 (SSL)

    --capath <directory>            CA目  (made using c_rehash) to verify peer against (SSL)

    --ciphers <list>                SSL密码

    --compressed                    要求返回是压缩的形势 (using deflate or gzip)

    --connect-timeout <seconds>    设置最大请求时间

    --create-dirs                  建立本地目录的目录层次结构

    --crlf                          上传是把LF转变成CRLF

    --ftp-create-dirs              如果远程目录不存在,创建远程目录

    --ftp-method [multicwd/nocwd/singlecwd]    控制CWD的使用

    --ftp-pasv                      使用 PASV/EPSV 代替端口

    --ftp-skip-pasv-ip              使用PASV的时候,忽略该IP地址

    --ftp-ssl                      尝试用 SSL/TLS 来进行ftp数据传输

    --ftp-ssl-reqd                  要求用 SSL/TLS 来进行ftp数据传输

    -F/--form <name=content>        模拟http表单提交数据

    -form-string <name=string>      模拟http表单提交数据

    -g/--globoff                    禁用网址序列和范围使用{}和[]

    -G/--get                        以get的方式来发送数据

    -h/--help                      帮助

    -H/--header <line>              自定义头信息传递给服务器

    --ignore-content-length        忽略的HTTP头信息的长度

    -i/--include                    输出时包括protocol头信息

    -I/--head                      只显示文档信息

    -j/--junk-session-cookies      读取文件时忽略session cookie

    --interface <interface>        使用指定网络接口/地址

    --krb4 <level>                  使用指定安全级别的krb4

    -k/--insecure                  允许不使用证书到SSL站点

    -K/--config                    指定的配置文件读取

    -l/--list-only                  列出ftp目录下的文件名称

    --limit-rate <rate>            设置传输速度

    --local-port<NUM>              强制使用本地端口号

    -m/--max-time <seconds>        设置最大传输时间

    --max-redirs <num>              设置最大读取的目录数

    --max-filesize <bytes>          设置最大下载的文件总量

    -M/--manual                    显示全手动

    -n/--netrc                      从netrc文件中读取用户名和密码

    --netrc-optional                使用 .netrc 或者 URL来覆盖-n

    --ntlm                          使用 HTTP NTLM 身份验证

    -N/--no-buffer                  禁用缓冲输出

    -p/--proxytunnel                使用HTTP代理

    --proxy-anyauth                选择任一代理身份验证方法

    --proxy-basic                  在代理上使用基本身份验证

    --proxy-digest                  在代理上使用数字身份验证

    --proxy-ntlm                    在代理上使用ntlm身份验证

    -P/--ftp-port <address>        使用端口地址,而不是使用PASV

    -Q/--quote <cmd>                文件传输前,发送命令到服务器

    --range-file                    读取(SSL)的随机文件

    -R/--remote-time                在本地生成文件时,保留远程文件时间

    --retry <num>                  传输出现问题时,重试的次数

    --retry-delay <seconds>        传输出现问题时,设置重试间隔时间

    --retry-max-time <seconds>      传输出现问题时,设置最大重试时间

    -S/--show-error                显示错误

    --socks4 <host[:port]>          用socks4代理给定主机和端口

    --socks5 <host[:port]>          用socks5代理给定主机和端口

    -t/--telnet-option <OPT=val>    Telnet选项设置

    --trace <file>                  对指定文件进行debug

    --trace-ascii <file>            Like --跟踪但没有hex输出

    --trace-time                    跟踪/详细输出时,添加时间戳

    --url <URL>                    Spet URL to work with

    -U/--proxy-user <user[:password]>  设置代理用户名和密码

    -V/--version                    显示版本信息

    -X/--request <command>          指定什么命令

    -y/--speed-time                放弃限速所要的时间。默认为30

    -Y/--speed-limit                停止传输速度的限制,速度时间'秒

    -z/--time-cond                  传送时间设置

    -0/--http1.0                    使用HTTP 1.0

    -1/--tlsv1                      使用TLSv1(SSL)

    -2/--sslv2                      使用SSLv2的(SSL)

    -3/--sslv3                      使用的SSLv3(SSL)

    --3p-quote                      like -Q for the source URL for 3rd party transfer

    --3p-url                        使用url,进行第三方传送

    --3p-user                      使用用户名和密码,进行第三方传送

    -4/--ipv4                      使用IP4

    -6/--ipv6                      使用IP6

    相关文章

      网友评论

          本文标题:2019-02-22

          本文链接:https://www.haomeiwen.com/subject/roiyyqtx.html