爬虫之urllib库的使用

作者: 小新你蜡笔呢 | 来源:发表于2018-06-25 17:53 被阅读6次

    昨天在了解了网页基本的请求和响应之后,今天我们来了解下python内置HTTP请求库urllib库的使用。

    首先什么是库?

    简单的说就是别人写好的东西,你拿来调用就可以实现基本的操作。比如电视你只用看,不用知道他是如何成像的。

    urllib库之request(用来模拟HTTP请求)模块

    request的第一个方法urlopen()

    我们以淘宝为例写上这样一段代码:

    read()是返回得到的内容,decode('utf8')是编码格式。

    返回的结果如下:

    如果我们不想获取页面,只想获取请求的状态码或者头信息只需要

    print(html.status)获取状态码,print(html.getheaders())获取头信息,可能你会说那莫多方法我怎么知道他有什么方法,此时只需要print(dir(html))一下,所有的方法,属性尽收眼底。那我怎么知道他是干什么的呢?help()一下就知道。

    接下来我们来说一下urlopen()方法的参数:

    我们利用上面说的去看一下有什么参数:

    得到如下结果:

    卧槽?怎么全英文???无奈,苦逼的我只好打开谷歌翻译。。。

    data参数:

    data参数是干什么的?我们知道我们在登录的时候的会填写账号密码,那么我们模拟登录的时候也要填写,这个参数就是做这个的!值得注意的是当我们添加了这个参数之后请求方式就不再是GET,而是POST请求。并且data参数是字节流编码格式我们需要转化一下。

    httpbin.org/post是一个请求测试网站,如下我们可以看到我们传递的参数已经在里面了。

    timeout参数:

    tomeout参数是设置超时时间的,如果超出这个时间未得到响应就会抛出超时异常。下面我们来练习一下:

    iisinstance()函数用来判断是否是超时,socket.timeout就是超时异常,而e.reason是捕捉的异常,做一个判断。

    结果如下:

    其他参数用到的时候再说,目前不需要了解吧。

    request的第二个方法Request()

    同样以淘宝为例:

    结果和上面的结果是一样的,我们可以发现只是请求的对象发生了改变,这有什么用了?这样会让我们更灵活的添加参数或者配置,没什么其他卵用,来说一下Request的参数吧。

    help一下:

    url,data和上面的一样,headers表示请求头,是一个字典,我们在爬取网站的时候通常会加上一个User-Agent参数,防止被识别为爬虫,修改它,伪装成浏览器。origin_reg_host是指请求的ip或者host,unverifiable是是否有抓取的权限没有为True,否者是False,mothod为请求方式。

    我们试着去添加多个参数:

    结果:

    也可以用方法去添加,这个就自己去试吧。

    error模块

    1,URLError类

    昨天我们导入包的方式感觉很烦,每次写都会很长

    想要变得简单点可以这样写:

    随便输入一个网址,并没有直接报错。

    2,HTTPError类(针对HTTP请求错误的类,使用方式和上面的一样)

    结果:

    reason:返回错误原因

    code:返回状态码

    headers:返回请求头信息

    这里只针对爬虫用到的来说一下。

    parse模块

    paese模块总的来说就是对url的操作,各种解析和合并等

    拆分的有:

    urlparse()

    urlsplit()

    结果:

    urlsplit()和urlparse()一样,不同是是urlsplit()的结果将parsms合并到了path里

    合并的有:

    urlunparse()合并的列表长度必须为6个

    urlunsplit()合并的列表长度变成了5个

    结果:

    urlunsplit()的写法也一样只是变成了长度变成了5。

    序列化和反序列化(我的理解是转化成符合某种格式)

    urlencode():将字典转化为get请求的编码格式

    parse_qs():将GET请求的参数转化成字典

    结果 :

    当url中有汉字时我们需要转化成url的编码格式quote()转化回来unquote()

    结果:

    其实上面讲的有三个模块,request请求模块,parse对url的处理模块和error异常处理模块。

    大家也可以关注我的微信公众号python入门到放弃

    点我关注:微信公众号

    完。

    相关文章

      网友评论

        本文标题:爬虫之urllib库的使用

        本文链接:https://www.haomeiwen.com/subject/sgayyftx.html