美文网首页python接口测试
[PPJ_11] Python之Requests常用的9种请求操

[PPJ_11] Python之Requests常用的9种请求操

作者: Fighting_001 | 来源:发表于2018-10-21 00:36 被阅读221次

    目录结构

    一、Requests发送HTTP请求
    二、Requests参数传递
        1.传递URL参数
        2.传递Body参数
    三、Requests请求头设置
        1.设置Request Headers
        2.Request Headers爬虫应用
    四、Requests Cookies设置
        1.设置Cookies
        2.获取Cookies
    五、Requests超时设置 & 文件上传
        1.超时设置
        2.文件上传
    六、Session会话对象
    七、SSL验证 & 代理设置
        1.SSL证书验证
        2.代理设置
    八、身份认证
    九、流式请求
    

    【被测对象】
    测试URL:http://www.httpbin.org
    A simple HTTP Request & Response Service(一个简单的HTTP请求&响应服务)
    GitHub项目:https://github.com/requests/httpbin

    一、Requests发送HTTP请求

    案例:选定某个测试的URL,利用requests库内置的不同的方法来发送不同类型(GET/POST/PUT/DELETE)的http请求,并输出响应的状态码

    请求方式 请求URL
    GET http://httpbin.org/get
    POST http://httpbin.org/post
    PUT http://httpbin.org/put
    DELETE http://httpbin.org/delete

    request basic.py

    # 导入requests库
    import requests
    
    # 定义base_url作为基础被测URL
    base_url = 'http://httpbin.org'
    
    # 发送get请求;打印响应状态码
    r = requests.get(base_url+'/get')
    print(r.status_code)
    
    # 发送POST请求;打印响应状态码
    r = requests.post(base_url+'/post')
    print(r.status_code)
    
    # 发送PUT请求;打印响应状态码
    r = requests.put(base_url+'/put')
    print(r.status_code)
    
    # 发送DELETE请求,打印响应状态码
    r = requests.delete(base_url+'/delete')
    print(r.status_code)
    

    执行结果:
    发送4种不同请求,对应响应状态码都是200,请求发送OK

    二、Requests参数传递

    1.传递URL参数

    案例:利用Requests库,在GET请求中使用查询字符串(Query String)传递参数。

    # 导入requests库
    import requests
    
    # 定义base_url作为基础被测URL
    base_url = 'http://httpbin.org'
    
    # 定义请求所需的参数,参数之间以英文逗号隔开
    param_data = {'uname':'Test00001','pwd':'123456'}
    # 发送GET请求,格式如:requests.get(url,params)
    r = requests.get(base_url+'/get',params=param_data)
    print(r.url)    # 输出请求的url
    print(r.status_code)    #输出响应的状态码
    

    执行结果:

    2.传递Body参数

    案例:利用Requests库,在POST请求的请求体(Request Body)中传递参数

    import requests
    base_url = 'http://httpbin.org'
    
    form_data = {'uname':'Test00002','pwd':'123456'}
    # 发送POST请求,格式如:requests.post(url,data)
    r = requests.post(base_url+'/post',data=form_data)
    print(r.text)   # 返回响应内容
    

    执行结果:

    三、Requests请求头设置

    1.设置Request Headers

    案例:利用Requests库,为POST请求添加HTTP Headers,此时需要传递一个字典类型的数据给headers参数

    import requests
    
    base_url = 'http://httpbin.org'
    
    form_data = {'uname':'Test00003','pwd':'123456'}
    header = {'user-agent':'Mozilla/5.0'}
    r = requests.post(base_url+'/post',data=form_data,headers=header)
    print(r.text)  #以文本形式返回响应内容
    

    执行结果:

    print(r.text)代表以文本形式返回响应内容

    若以上代码修改为print(r.json()),代表以json形式返回响应内容,如下:

    2.Request Headers爬虫应用

    爬虫程序通过定制Request Headers来模拟浏览器的访问行为,以应对网站的反爬虫策略,避免被封。

    如:爬取知乎页面元素时,需要设置与浏览器一致的请求头,然后再发送请求
    测试url:https://www.zhihu.com/explore

    情形1:不设置Request Headers
    import requests
    r = requests.get('https://www.zhihu.com/explore')
    print(r.text)
    

    执行结果:
    400状态,错误请求,服务器无法解析请求

    情形2:设置Request Headers

    (从浏览器Copy一份User-Agent作为设置的Headers)

    import requests
    header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
    r = requests.get('https://www.zhihu.com/explore',headers=header)
    print(r.text)
    

    执行结果:
    可正常返回页面的元素

    四、Requests Cookies设置

    1.设置Cookies

    通过cookies参数可以设置Cookie

    request advanced.py

    import requests
    
    base_url = 'http://httpbin.org'
    
    cookie = {'uid':'666'}
    r =requests.get(base_url+'/cookies',cookies=cookie)
    print(r.text)
    

    执行结果:

    2.获取Cookies

    首页对某个站点发起请求,然后获取其Cookies(通过调用cookies属性即可获取所请求站点的cookies)

    r = requests.get('http://www.baidu.com')
    print(r.cookies)
    print(type(r.cookies))
    
    for key,value in r.cookies.items():
        print(key+':'+value)
    

    执行结果:

    从以上输出结果中可以观察到:
    1)所获取的cookies的类型是RequestCookieJar类型
    2)用items()方法将所获取的cookies转化为元组组成的列表,然后遍历输出每一个cookie的名称和值,实现cookies的遍历解析

    五、Requests超时设置 & 文件上传

    1.超时设置

    将timeout作为参数项,若响应超过设置的时间后即停止等待响应,以防某些请求没有响应而一直处于等待状态
    1)先获取响应时间

    import requests
    
    base_url = 'http://httpbin.org'
    
    cookie = {'uid':'666'}
    r = requests.get(base_url+'/cookies',cookies=cookie)
    print(r.text)
    print(r.elapsed.total_seconds())    # 获取响应时间(s)
    

    2)设置等待响应的超时时间

    cookie = {'uid':'666'}
    r = requests.get(base_url+'/cookies',cookies=cookie,timeout=0.5)
    print(r.text)
    

    执行结果:(连接超时,抛出异常)
    requests.exceptions.ConnectTimeout: HTTPConnectionPool(host='httpbin.org', port=80): Max retries exceeded with url: /cookies (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x02043BB0>, 'Connection to httpbin.org timed out. (connect timeout=0.5)'))

    2.文件上传

    Requests利用files作为参数模拟提交文件数据

    file = {'file':open('test.bmp','rb')}   #rb表示用二进制格式打开指定目录下的文件,且用于只读
    r =requests.post(base_url+'/post',files=file)
    print(r.text)
    

    执行结果:
    指定目录下(本次与脚本文件在同一目录)的图片数据经过编码已经提交ok

    六、Session会话对象

    会话(Session):Session对象存储特定用户会话所需的属性及配置信息。当用户在应用程序的Web页面之间跳转时,存储在Session对象中的变量将在整个用户会话过程中一直存在,以确保在不同页面中操作的是同一个用户。

    在接口测试过程中接口之间经常有依赖关系,如某个接口中的数值传递到另外一个接口作为参数传递使用。

    案例:A请求是设置 Cookie,B请求是获取Cookie。若没有Session保存机制的情况下,B接口是没法获取到A接口设置的Cookie值。

    # 设置Cookies。{name}/{value}分别设置Cookie的名称和值
    http://www.httpbin.org/cookies/set/{name}/{value}
    # 获取Cookies
    http://www.httpbin.org/cookies
    
    场景①:未启用Session保存机制

    执行代码:

    # A接口设置Cookie
    r = requests.get(base_url+'/cookies/set/uid/666')
    print(r.text)
    
    print('--------------------')
    
    # B接口获取Cookie
    r = requests.get(base_url+'/cookies')
    print(r.text)
    

    执行结果:

    场景②:启用Session保存机制

    Requests的会话对象能够跨请求保持某些参数,也会在同一个Session实例发出的所有请求之间保持cookie一致。
    适用场景:利用Session可以模拟同一个会话,如模拟登录成功之后再进行后续操作

    执行代码:

    # 生成会话对象
    s = requests.session()
    
    # 利用会话对象调用接口A并设置cookie
    r = s.get(base_url+'/cookies/set/uid/666')
    print(r.text)
    
    print('--------------------')
    
    # 利用同一会话对象调用接口B并获取cookie
    r = s.get(base_url+'/cookies')
    print(r.text)
    

    执行结果:

    七、SSL验证 & 代理设置

    1.SSL证书验证

    Requests可以模拟Web浏览器,实现对HTTPS请求来验证SSL证书。SSL验证默认是开启的,若证书验证失败,Requests会抛出SSLError;若不想验证SSL则可以使用verify参数(verify=False)关闭验证SSL。

    以验证12306网站的证书为例,如下:

    1)保持默认开启SSL证书验证,发送请求
    执行代码:

    import requests
    r = requests.get('https://www.12306.cn')
    print(r.text)
    

    执行结果:
    ssl.CertificateError: hostname 'www.12306.cn' doesn't match either of 'webssl.chinanetcenter.com', 'i.l.inmobicdn.net', ...
    PS:12306的证书是自己颁发给自己的,若不关闭SSL认证时,会出现认证失败

    2)利用verify参数关闭验证SSL
    执行代码:

    import requests
    r = requests.get('https://www.12306.cn',verify=False)
    print(r.text)
    

    执行结果:

    2.代理设置

    代理(Proxy):网络代理是一种特殊的网络服务,允许一个网络终端(客户端)通过代理服务与另一个网络终端(服务器)进行非直接的连接。代理服务器位于客户端和服务端之间,代理服务器接收客户端的请求,然后代替客户端向目标网站发出请求,所有的流量路由均来自代理服务器的IP地址,从而实现获取一些不能直接获取的资源。

    测试过程中,有的接口在请求少量次数时,可正常获取内容。但若大量频繁请求(如:性能测试场景),服务器可能会开启验证,甚至直接把IP封禁。为了防止以上情况影响正常测试,此时就需要设置代理来解决。在Requests中需要用到proxies参数,在爬虫时也会常用到代理设置。

    测试过程中所需的代理IP,可参考:西刺免费代理IP

    选取某个代理IP进行测试:
    类型:HTTP
    IP地址:118.190.95.35
    端口:9001

    执行代码:

    proxy = {'http':'118.190.95.35:9001'}
    r = requests.get(base_url+'/get',proxies=proxy)
    print(r.text)
    

    执行结果:

    以上返回结果中,origin参数即为请求时所设置的代理IP(若不设置代理IP,则origin显示为所用测试机的IP)

    八、身份认证

    身份认证:很多接口都需要身份认证,Requests支持多种身份认证,如:BasicAuth、DigestAuth...

    执行代码:

    import requests
    from requests.auth import HTTPBasicAuth
    from requests.auth import HTTPDigestAuth
    
    base_url = 'http://httpbin.org'
    
    # BasicAuth认证
    r = requests.get(base_url+'/basic-auth/test00001/111111',auth=HTTPBasicAuth('test00001','111111'))
    print(r.text)
    
    print('------------------')
    
    # DigestAuth认证
    r = requests.get(base_url+'/digest-auth/auth/test00002/222222',auth=HTTPDigestAuth('test00002','222222'))
    print(r.text)
    

    执行结果:

    九、流式请求

    流式请求:有的接口返回值包含有多个结果,而非常规的返回一个结果。比如查询接口,其返回值为排在前面固定数量的多个结果。

    案例
    请求接口:http://httpbin.ors/streas/{n}

    n表示返回结果集的数量,比如输入10则会返回10个不同id的结果,如下:

    r = requests.get(base_url+'/stream/10')
    print(r.text)
    

    针对此类型接口,对结果集的处理需要使用iter_lines()迭代方法来处理。如下:
    iter_lines() 函数说明:http://docs.python-requests.org/zh_CN/latest/api.html

    执行代码:

    import requests
    import  json
    
    # 发送流式请求,stream=True表示接受流式请求,返回多个结果
    r = requests.get(base_url+'/stream/10',stream=True)
    
    # 若响应内容未设置编码格式,则将其设置为utf-8格式
    if r.encoding is None:
        r.encoding = 'utf-8'
    
    # 对响应结果进行迭代处理每一组数据(一次一行)
    for line in r.iter_lines(decode_unicode=True):  # unicode解码方式
        if line:
            data = json.loads(line) # 将响应的json数据转换为python数据(字典类型)
            print(data['id'])   #输出每个结果(字典类型)中id键对应的值
    

    执行结果:

    PS:
    json.loads() 函数实现:json格式的字符串(str) ==> python格式的字典(dict)

    相关文章

      网友评论

        本文标题:[PPJ_11] Python之Requests常用的9种请求操

        本文链接:https://www.haomeiwen.com/subject/zwgdzftx.html