美文网首页
爬虫URLLIB的基本使用

爬虫URLLIB的基本使用

作者: 浮_屠 | 来源:发表于2019-03-07 20:13 被阅读0次

    URLLIB库的基本使用

    • Request:它是最基本的HTTP请求模块,可以模拟发起请求,使用时需要给库传的URL和相关的参数即可
    • Error:异常处理模块,如果出现了请求错误,可以使用这个模块捕捉这个异常,然后进行其他的操作,保证程序不会因为异常而终止
    • Parse:这是个工具模块,提供了很多的URL处理方法,比如拆分,解析,合并等

    URLOPEN方法的使用

    • URL:设置目标URL
    • Data:设置给参数就默认为POST请求,不设置为GET请求
    • Timeout:设置超时时间,单位为秒
    • Content:必须是一个ssl,用来指定SSL设置,忽略未认证的CA证书

    Request

    • URL;参数是请求连接,这是个必传参数
    • data:参数和Urlopen()中的打他参数用法相同

    data(默认空):是伴随 url 提交的数据(比如要post的数据),同时 HTTP 请求将从 "GET"方式 改为 "POST"方式。

    • Headers:是个字典,除了在Request中添加,还可以通过调用Request中的add_header()方法来添加请求头

    headers(默认空):是一个字典,包含了需要发送的HTTP报头的键值对。

    • unverifiable:默认为False,表示用户没有足够的权限俩选择接收这个请求的结果
    • method:参数是指发起的HTTP请求的方式

    Get方式

    Get请求一般用于我们向服务器获取数据,中文会被转化为十六进制的数据

    GET方式是直接以链接形式访问,链接中包含了所有的参数,服务器端用Request.QueryString获取变量的值。如果包含了密码的话是一种不安全的选择,不过你可以直观地看到自己提交了什么内容。

    Post方式

    Request请求对象的里面data参数,而这个参数就是用在POST里面的

    POST则不会在网址上显示所有的参数,服务器端用Request.Form获取提交的数据,在Form提交的时候。但是HTML代码里如果不指定 method 属性,则默认为GET请求,Form中提交的数据将会附加在url之后,以?分开与url分开。

    parse模块常用的URL解析、合并、编码、解码

    使用时需导入

    from urllib import parse

    urlparse()实现URL的识别和分段

    url = 'https://book.qidian.com/info/1004608738?wd=123&page=20#Catalog'
    """
    url:待解析的url
    scheme='':假如解析的url没有协议,可以设置默认的协议,如果url有协议,设置此参数无效
    allow_fragments=True:是否忽略锚点,默认为True表示不忽略,为False表示忽略
    """
    result =   parse.urlparse(url=url,scheme='http',allow_fragments=True)
    
    print(result)
    print(result.scheme)
    """
    (scheme='https', netloc='book.qidian.com', path='/info/1004608738', params='', query='wd=123&page=20', fragment='Catalog')
    scheme:表示协议
    netloc:域名
    path:路径
    params:参数
    query:查询条件,一般都是get请求的url
    fragment:锚点,用于直接定位页
    面的下拉位置,跳转到网页的指定位置
    """
    

    urlunparse()可以实现URL的构造

    url_parmas = ('https', 'book.qidian.com', '/info/1004608738', '', 'wd=123&page=20', 'Catalog')
    #components:是一个可迭代对象,长度必须为6
    result = parse.urlunparse(url_parmas)
    print(result)
    """
    https://book.qidian.com/info/1004608738?wd=123&page=20#Catalog
    """
    

    urljoin()传递一个基础链接,根据基础链接可以将某一个不完整的链接拼接为一个完整链接

    base_url = 'https://book.qidian.com/info/1004608738?wd=123&page=20#Catalog'
    sub_url = '/info/100861102'
    
    full_url = parse.urljoin(base_url,sub_url)
    
    print(full_url)
    

    urlencode()将字典构形式的参数序列化为url编码后的字符串

    (常用来构造get请求和post请求的参数)k1=v1&k2=v2

    parmas = {
    'wd':'123',
    'page':20
    }
    parmas_str = parse.urlencode(parmas)
    
    print(parmas_str)
    
    """
    page=20&wd=123
    """
    

    parse_qs()将url编码格式的参数反序列化为字典类型

    parmas_str = 'page=20&wd=123'
    parmas = parse.parse_qs(parmas_str)
    print(parmas)
    
    """
    {'page': ['20'], 'wd': ['123']}
    """
    

    quote()可以将中文转换为URL编码格式

    word = '中国梦'
    url = 'http://www.baidu.com/s?wd='+parse.quote(word)
    print(parse.quote(word))
    print(url)
    
    """
    %E4%B8%AD%E5%9B%BD%E6%A2%A6
    http://www.baidu.com/s?wd=%E4%B8%AD%E5%9B%BD%E6%A2%A6
    """
    

    unquote:可以将URL编码进行解码

    url = 'http://www.baidu.com/s?wd=%E4%B8%AD%E5%9B%BD%E6%A2%A6'
    print(parse.unquote(url))
    """
    http://www.baidu.com/s?wd=中国梦
    """
    

    urllib的异常错误处理

    这里主要说的是URLErrorHTTPError,以及对它们的错误处理。
    URLError:来自urllib库的error模块,继承自OSError,由request模块产生的异常都可以通过捕捉这个类来处理.
    产生的原因主要有:

    • 没有网络连接
    • 服务器连接失败
    • 找不到指定的服务器
      它具有一个属性reason,返回错误的原因

    HTTPError

    • HTTPError是URLError的子类,我们发出一个请求时,服务器上都会对应一个response应答对象,其中它包含一个数字"响应状态码"。
    • 专门用来处理HTTP请求错误,比如未认证,页面不存在等
    • 有三个属性:
      • code:返回HTTP的状态码
      • reason:返回错误原因
      • headers:返回请求头

    相关文章

      网友评论

          本文标题:爬虫URLLIB的基本使用

          本文链接:https://www.haomeiwen.com/subject/xavhpqtx.html