美文网首页
Python爬虫中urllib库的使用入门

Python爬虫中urllib库的使用入门

作者: 喧哗与搏杀 | 来源:发表于2019-04-07 12:57 被阅读0次

urllib库简介

urllib库是Python中一个最基本的网络请求库。可以模拟浏览器的行为,向指定的服务器发送一个请求,并可以保存服务器返回的数据。urllib 是一个收集了多个使用URL的模块的软件包:

  • urllib.request打开和阅读URLs
  • urllib.error包含 urllib.request抛出的异常
  • urllib.parse用于处理URL
  • urllib.robotparser用于解析robots.txt文件
    本文只介绍再爬虫中通常需要使用的request模块和parse模块

urllib.request

urlopen函数

在Python3的urllib库中,所有和网络请求相关的方法,都被集到urllib.request模块下面了,而其中最为重要的又是urlopen函数的基本使用:

#导入库
from urllib import request
#获取网页,打印
resp=request.urlopen("http://www.baidu.com/")
print(resp.read())

打印出来的即为网页的源代码,其中存在的unicode码可以通过
print(resp.read().decode('utf-8'))
转为utf中文字符!

urlretrieve函数

urlretrieve函数也可以读取网页源码,不同的是它可以快速将网页源码存在本地目录下。

#urlretrieve(url,filename,reporthook,data,)
#一般定义url和filename即可
resp=request.urlretrieve("http://www.baidu.com","baidu.html")

request.Request

如果想要在请求的时候增加一些请求头,那么就必须使用request.Request类来实现。比如要增加一个User-Agent,示例代码如下:

from urllib import request

headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'
}
req = request.Request("http://www.baidu.com/",headers=headers)
resp = request.urlopen(req)
print(resp.read())

头文件可通过F12(开发者模式)找到


开发者模式找头文件

urllib.parse

本模块可以实现对于文本的转码。

urlencode

用浏览器发送请求的时候,如果url中包含了中文或者其他特殊字符,那么浏览器会自动的给我们进行编码。而如果使用代码发送请求,那么就必须手动的进行编码,这时候就应该使用urlencode函数来实现。urlencode可以把字典数据转换为URL编码的数据。示例代码如下:

from urllib import parse
data = {'name':'爬虫基础','greet':'hello world','age':100}
qs = parse.urlencode(data)
print(qs)

name=%E7%88%AC%E8%99%AB%E5%9F%BA%E7%A1%80&greet=hello+world&age=100

比如百度搜索搜索中国的两种表达:
https://www.baidu.com/s?wd=中国
https://www.baidu.com/s?wd=%E4%B8%AD%E5%9B%BD
这是因为浏览器会识别中文,自动转换,而urllib库则需要将中文字符转换为url编码的数据。

resp=request.urlopen("https://www.baidu.com/s?wd=中国")
print(resp.read().decode('utf-8'))
#报编码错误
UnicodeEncodeError: 'ascii' codec can't encode characters in position 10-11: ordinal not in range(128)
resp=request.urlopen("https://www.baidu.com/s?wd=%E4%B8%AD%E5%9B%BD")
print(resp.read().decode('utf-8'))
#可获得网页源码

parse_qs函数:

与上一个函数相反可以将经过编码后的url参数进行解码。示例代码如下:

from urllib import parse
qs = "name=%E7%88%AC%E8%99%AB%E5%9F%BA%E7%A1%80&greet=hello+world&age=100"
print(parse.parse_qs(qs))
#结果为字典
{'name': ['爬虫基础'], 'greet': ['hello world'], 'age': ['100']}

urlparse和urlsplit:

有时候拿到一个url,想要对这个url中的各个组成部分进行分割,那么这时候就可以使用urlparse或者是urlsplit来进行分割。示例代码如下:

from urllib import request,parse

url = 'http://www.baidu.com/s?username=zhongguo'

result = parse.urlsplit(url)
# result = parse.urlparse(url)

print('scheme:',result.scheme)
print('netloc:',result.netloc)
print('path:',result.path)
print('query:',result.query)
#输出结果
scheme: http 
netloc: www.baidu.com
path: /s
query: username=zhongguo

urlparse和urlsplit基本上是一模一样的。唯一不一样的地方是,urlparse里面多了一个params属性,而urlsplit没有这个params属性。比如有一个url为:
url = 'http://www.baidu.com/s;hello?wd=python&username=abc#1'
那么urlparse可以获取到hello,而urlsplit不可以获取到。url中的params也用得比较少。

相关文章

网友评论

      本文标题:Python爬虫中urllib库的使用入门

      本文链接:https://www.haomeiwen.com/subject/csojiqtx.html