源码分享
https://docs.qq.com/sheet/DUHNQdlRUVUp5Vll2?tab=BB08J2
在构建Python爬虫时,理解HTTP响应(Response)是至关重要的。本篇博客将详细介绍如何使用Python的Requests库来处理HTTP响应,并通过详细的代码案例指导你如何提取和利用所需的信息。
Response对象简介
当你发出一个HTTP请求后,服务器将返回一个HTTP响应。在Python的Requests库中,这个响应被封装在Response对象中。这个对象包含了所有请求的结果,包括状态码、响应头、Cookies以及返回的网页内容等。
基本用法
让我们从最基本的用法开始,发送一个GET请求并获取Response对象。
import requests
response = requests.get('https://httpbin.org/get')
此时,response变量就是一个包含服务器返回信息的Response对象。
状态码
检查状态码可以让我们知道请求是否成功。
if response.status_code == 200:
print("请求成功!")
else:
print("请求失败,状态码:", response.status_code)
Response内容
可以通过text属性访问服务器返回的内容。
print(response.text)
如果返回的是JSON格式的内容,可以直接解析为JSON对象。
data = response.json()
print(data)
响应头
响应头包含了服务器对请求的响应信息,比如内容类型、日期等。
print("响应头:")
print(response.headers)
Cookies
Cookies是服务器设置在用户浏览器上的小型数据片段,爬虫可以利用这些信息保持会话状态。
print("Cookies:")
print(response.cookies)
重定向历史
有时候请求一个URL后会发生重定向,history属性可以查看重定向的路径。
print("重定向历史:")
for resp in response.history:
print(resp.status_code, resp.url)
详细的代码案例
现在,让我们通过一个实际的例子来演示如何使用Response对象。假设我们要爬取一个网页并分析其中的链接。
import requests
from urllib.parse import urljoin
from bs4 import BeautifulSoup
# 发出请求
response = requests.get('http://example.com')
# 检查是否请求成功
if response.ok: # 相当于检查 response.status_code == 200
# 使用BeautifulSoup解析HTML内容
soup = BeautifulSoup(response.text, 'html.parser')
# 提取所有的链接
for link in soup.find_all('a', href=True):
# 使用urljoin确保链接是完整的
full_url = urljoin('http://example.com', link['href'])
print(full_url)
else:
print('请求失败。错误码:', response.status_code)
在上面的代码中,我们首先发送了一个GET请求到http://example.com。如果请求成功,我们使用BeautifulSoup解析HTML,然后提取和打印页面上所有的链接。
总结
Response对象是Python网页爬取过程中的关键,它提供了丰富的方法和属性来处理HTTP响应。在本文中,我们介绍了如何使用Requests库获取和处理Response对象,并通过代码案例展示了如何利用响应内容来爬取网页链接。掌握了这些知识后,你将更有条件面对更加复杂的网页爬取任务。
网友评论