美文网首页
静态页面爬虫

静态页面爬虫

作者: Cloud_J | 来源:发表于2019-01-29 15:59 被阅读0次

requests库简介

以下是requests库的官方介绍:

Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用。

Requests 允许你发送纯天然,植物饲养的 HTTP/1.1 请求,无需手工劳动。你不需要手动为 URL 添加查询字串,也不需要对 POST 数据进行表单编码。Keep-alive 和 HTTP 连接池的功能是 100% 自动化的,一切动力都来自于根植在 Requests 内部的 urllib3

警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症、冗余代码症、重新发明轮子症、啃文档症、抑郁、头疼、甚至死亡。

上面的官方介绍看不懂没关系,总而言之,requests库是一个非常优秀的HTTP库

requests库的安装

那我们首先从requests库的安装开始。

安装非常简单,只要把以下命令复制到命令行中(不用复制‘$’),敲击回车等待安装结束就OK了

$ pip install requests

提示“Successfully installed ... ...”之类的就表示安装成功了

安装完成后就可以使用了。

一个例子

那么接下来我们就先简单地使用一下requests库,用来爬取百度的首页

# 导入requests库
import requests

url = "http://www.baidu.com"
# 用requests库中的get方法获取百度的首页
r = requests.get(url)
# 输出响应的状态代码
print(r.status_code)
# 将获取的网页源代码编码设置为‘utf-8’
r.encoding = 'utf-8'
# 输出网页HTML代码
print(r.text)

以下就是输出结果了

200
'<!DOCTYPE html>\r\n<!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8><meta http-equiv=X-UA-Compatible content=IE=Edge><meta content=always name=referrer><link rel=stylesheet type=text/css href=http://s1.bdstatic.com/r/www/cache/bdorz/baidu.min.css><title>百度一下,你就知道</title></head> <body link=#0000cc> <div id=wrapper> <div id=head> <div class=head_wrapper> <div class=s_form> <div class=s_form_wrapper> <div id=lg>... ...
  • 200是我们通过print(r.status_code())输出的状态代码,200说明访问成功
  • 第二行开始输出的一长串的HTML代码(省略了一部分)就是我们爬取到的网页源代码了

r= requests.get(url)

获得一个网页的最简单的一行代码就是r= requests.get(url)。这行代码通过get方法和url参数构建了一个Request对象(注意这里的'R'是大写)。这个方法返回的值用变量r来表示写成,这个r是一个Response对象,里面包含从服务器返回的所有资源,即爬虫返回的内容。

Response对象的基本属性

r.status_code,返回HTTP响应的状态代码,一般用来检查访问是否成功,200为成功

r.text,HTTP响应内容的字符串形式,即对应的页面内容

r.content,HTTP响应内容的二进制形式

r.encoding,从header中猜测的响应内容的编码方式

r.apparent_encoding,从响应内容中分析出的编码方式(备选编码方式)

请求头

上面在使用get方法的时候,我们只使用了url这一个参数,其实除了url之外,get方法还有其他12个控制访问的参数。其中用来添加请求头的参数就是headers。

我们可以传递一个字典作为headers参数

url = "http://www.baidu.com"
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'
}
r = requests.get(url, headers=headers)

关于修改请求头的作用会在之后讲反爬虫的时候提到,这里就不深入写了。

响应头

我们可以通过r.headers来查看服务器响应的头部信息

以下就是它以字典的形式展示的信息

{
    'Cache-Control': 'private, no-cache, no-store, proxy-revalidate, no-transform',
    'Connection': 'Keep-Alive',
    'Content-Encoding': 'gzip',
    'Content-Type': 'text/html',
    'Date': 'Thu, 23 Aug 2018 13:46:09 GMT',
    'Last-Modified': 'Mon, 23 Jan 2017 13:28:36 GMT',
    'Pragma': 'no-cache',
    'Server': 'bfe/1.0.8.18',
    'Set-Cookie': 'BDORZ=27315; max-age=86400; domain=.baidu.com; path=/',
    'Transfer-Encoding': 'chunked'
}

编码与解码

在我们抓取一些网页的时候,尤其是一些中文网页,比如说上面的百度,你会发现你爬下来的内容中有很多的乱码,类似下面这种

è´´å\x90§=ç\x99¾åº¦ä¸\x80ä¸\x8b

其实这一般是编码的问题。之前在讲python基础的时候就已经提到了

不经过处理的r.text是基于r.encodingr.content进行解码得到的,所以对出现的乱码,我们可以尝试手动解码。就像我在快速开始中给出的代码,通过一行r.encoding = 'utf-8'可以手动把编码改成'utf-8'

或者可以使用r.apparent_encoding来代替'utf-8',效果基本上是一样的。

扩展

requests库的一些简单的功能就介绍到这里,除此之外,requests库还有很多高级用法,有兴趣的可以参考Requests库官方文档


参考资料:

Requests库官方文档

相关文章

  • 爬虫初窥

    静态爬虫和动态爬虫 静态爬虫:页面数据的展示不依靠js等和后台的交互。动态爬虫:页面的数据需要通过js,ajax等...

  • 静态页面爬虫

    requests库简介 以下是requests库的官方介绍: Requests 唯一的一个非转基因的 Python...

  • Java爬虫_静态页面

    一、 网络爬虫是做什么的? 他的主要工作就是 跟据指定的url地址 去发送请求,获得响应, 然后解析响应 , 一...

  • Java爬虫_动态页面

    一、爬虫介绍:请查看我的上篇文章 “Java爬虫_静态页面”二、动态爬虫工具介绍:1、IDEA,开发工具,创建Ma...

  • leetcode爬虫源码寻找之意外发现

    nodejs爬取自己做的leetcode题目并以静态形式部署。 爬虫源码 leetcode spider 页面源码...

  • node.js爬虫入门(二)爬取动态页面(puppeteer)

    之前第一篇爬虫教程node.js爬虫入门(一)爬取静态页面讲解了静态网页的爬取,十分简单,但是遇到一些动态网页(a...

  • weibo词云

    爬虫部分首先 解析页面在关闭js后发现 页面完全是静态的 所以只需要一次请求 就完全加载页面先拿到page的数量 ...

  • Python开发轻量级爬虫

    1.概述 对于轻量级爬虫: 只抓取静态页面 而对于高级的爬虫,需要考虑的因素就较多,如: 如何模拟登陆 验证码识别...

  • Servlet前置知识

    动态页面和静态页面 介绍 Servlet 之前,先来了解 静态页面、动态页面 的区别: 静态页面:或称为静态资源,...

  • 第一个爬虫

    [TOC] 目标 用scrapy写一个可以下载页面,解析静态页面的爬虫,加head,加链接生成器解析,可能用xpa...

网友评论

      本文标题:静态页面爬虫

      本文链接:https://www.haomeiwen.com/subject/qevxsqtx.html