python爬虫之scrapy

作者: 9ba4bd5525b9 | 来源:发表于2019-04-18 16:38 被阅读61次

    scrapy安装

    在windows下,在dos中运行pip install Scrapy报错

    采用pip安装,安装时可能会出现安装错误MicrosoftVisualC++14.0isrequired,

    解决方案

    http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

    下载twisted对应版本的whl文件(如我的Twisted‑18.7.0‑cp37‑cp37m‑win_amd64.whl),cp后面是python版本,amd64代表64位,运行命令:

    pip install C:\python3.7\Scripts\Twisted-18.7.0-cp37-cp37m-win_amd64.whl

    其中install后面为下载的whl文件的完整路径名

    安装完成后,再次运行:

    pip install Scrapy

    即可成功。

    为什么要做爬虫?

    首先请问:都说现在是"大数据时代",那数据从何而来?

    企业产生的用户数据:百度指数阿里指数TBI腾讯浏览指数新浪微博指数

    数据平台购买数据:数据堂国云数据市场贵阳大数据交易所

    政府/机构公开的数据:中华人民共和国国家统计局数据世界银行公开数据联合国数据纳斯达克

    数据管理咨询公司:麦肯锡埃森哲艾瑞咨询

    爬取网络数据:如果需要的数据市场上没有,或者不愿意购买,那么可以选择招/做一名爬虫工程师,自己动手丰衣足食。拉勾网Python爬虫职位

    爬虫是什么?

    百度百科:网络爬虫

    关于Python爬虫,我们需要学习的有:

    1. Python基础语法学习(基础知识)

    2. HTML页面的内容抓取(数据抓取)

    3. HTML页面的数据提取(数据清洗)

    4. Scrapy框架以及scrapy-redis分布式策略(第三方框架)

    6. 爬虫(Spider)、反爬虫(Anti-Spider)、反反爬虫(Anti-Anti-Spider)之间的斗争....

    1. Python的基本语法知识(已经搞定)-2. 如何抓取HTML页面:        HTTP请求的处理,urllib、urllib2、requests

            处理后的请求可以模拟浏览器发送请求,获取服务器响应的文件-3. 解析服务器响应的内容        re、xpath、BeautifulSoup4(bs4)、jsonpath、pyquery等

            使用某种描述性一样来给我们需要提取的数据定义一个匹配规则,

            符合这个规则的数据就会被匹配。-4. 如何采集动态HTML、验证码的处理    通用的动态页面采集:Selenium + PhantomJS(无界面):模拟真实浏览器加载js、ajax等非静态页面数据

        Tesseract:机器学习库,机器图像识别系统,可以处理简单的验证码,复杂的验证码可以通过手动输入/专门的打码平台-5 Scrapy框架:(Scrapy,Pyspider)    高定制性高性能(异步网络框架twisted),所以数据下载速度非常快,

        提供了数据存储、数据下载、提取规则等组件。-6 分布式策略 scrapy-reids:    scrapy-redis,在Scrapy的基础上添加了一套以 Redis 数据库为核心的组件。

            让Scrapy框架支持分布式的功能,主要在Redis里做 请求指纹去重、请求分配、数据临时存储。-7 爬虫 - 反爬虫 - 反反爬虫 之间的斗争:    其实爬虫做到最后,最头疼的不是复杂的页面,也是晦涩的数据,而是网站另一边的反爬虫人员。

    通用爬虫和聚焦爬虫

    根据使用场景,网络爬虫可分为通用爬虫聚焦爬虫两种.

    通用爬虫

    通用网络爬虫 是 捜索引擎抓取系统(Baidu、Google、Yahoo等)的重要组成部分。主要目的是就是尽可能把互联网上所有的网页下载下来,放到本地服务器里形成备份,再对这些网页做相关处理(提取关键字、去掉广告),最后提供一个用户检索接口。

    通用搜索引擎(Search Engine)工作原理

    通用网络爬虫从互联网中搜集网页,采集信息,这些网页信息用于为搜索引擎建立索引从而提供支持,它决定着整个引擎系统的内容是否丰富,信息是否即时,因此其性能的优劣直接影响着搜索引擎的效果。

    第一步:抓取网页

    搜索引擎网络爬虫的基本工作流程如下:

    首先选取一部分的种子URL,将这些URL放入待抓取URL队列;

    取出待抓取URL,解析DNS得到主机的IP,并将URL对应的网页下载下来,存储进已下载网页库中,并且将这些URL放进已抓取URL队列。

    分析已抓取URL队列中的URL,分析其中的其他URL,并且将URL放入待抓取URL队列,从而进入下一个循环....

    搜索引擎如何获取一个新网站的URL:

    1. 新网站向搜索引擎主动提交网址:(如百度http://zhanzhang.baidu.com/linksubmit/url

    2. 在其他网站上设置新网站外链(尽可能处于搜索引擎爬虫爬取范围)

    3. 搜索引擎和DNS解析服务商(如DNSPod等)合作,新网站域名将被迅速抓取。

    但是搜索引擎蜘蛛的爬行是被输入了一定的规则的,它需要遵从一些命令或文件的内容,如标注为nofollow的链接,或者是Robots协议。

    Robots协议(也叫爬虫协议、机器人协议等),全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,例如:

    淘宝网:https://www.taobao.com/robots.txt

    腾讯网:http://www.qq.com/robots.txt

    第二步:数据存储

    搜索引擎通过爬虫爬取到的网页,将数据存入原始页面数据库。其中的页面数据与用户浏览器得到的HTML是完全一样的。

    搜索引擎蜘蛛在抓取页面时,也做一定的重复内容检测,一旦遇到访问权重很低的网站上有大量抄袭、采集或者复制的内容,很可能就不再爬行。

    第三步:预处理

    搜索引擎将爬虫抓取回来的页面,进行各种步骤的预处理。

    提取文字

    中文分词

    消除噪音(比如版权声明文字、导航条、广告等……)

    索引处理

    链接关系计算

    特殊文件处理

    ....

    除了HTML文件外,搜索引擎通常还能抓取和索引以文字为基础的多种文件类型,如 PDF、Word、WPS、XLS、PPT、TXT 文件等。我们在搜索结果中也经常会看到这些文件类型。

    但搜索引擎还不能处理图片、视频、Flash 这类非文字内容,也不能执行脚本和程序。

    第四步:提供检索服务,网站排名

    搜索引擎在对信息进行组织和处理后,为用户提供关键字检索服务,将用户检索相关的信息展示给用户。

    同时会根据页面的PageRank值(链接的访问量排名)来进行网站排名,这样Rank值高的网站在搜索结果中会排名较前,当然也可以直接使用 Money 购买搜索引擎网站排名,简单粗暴。

    课外阅读:Google搜索引擎的工作原理

    通用爬虫的缺点:

    1. 只能提供和文本相关的内容(HTML、Word、PDF)等等,但是不能提供多媒体文件(音乐、图片、视频)和二进制文件(程序、脚本)等等。

    2. 提供的结果千篇一律,不能针对不同背景领域的人提供不同的搜索结果。

    3. 不能理解人类语义上的检索。

    针对这些情况,聚焦爬虫技术得以广泛使用。

    聚焦爬虫

    聚焦爬虫,是"面向特定主题需求"的一种网络爬虫程序,它与通用搜索引擎爬虫的区别在于:聚焦爬虫在实施网页抓取时会对内容进行处理筛选,尽量保证只抓取与需求相关的网页信息。

    而我们今后要学习的,就是聚焦爬虫。

    HTTP和HTTPS

    HTTP协议(HyperText Transfer Protocol,超文本传输协议):是一种发布和接收 HTML页面的方法。

    HTTPS(Hypertext Transfer Protocol over Secure Socket Layer)简单讲是HTTP的安全版,在HTTP下加入SSL层。

    SSL(Secure Sockets Layer 安全套接层)主要用于Web的安全传输协议,在传输层对网络连接进行加密,保障在Internet上数据传输的安全。

    HTTP的端口号为80,

    HTTPS的端口号为443

    HTTP工作原理

    网络爬虫抓取过程可以理解为模拟浏览器操作的过程。

    浏览器的主要功能是向服务器发出请求,在浏览器窗口中展示您选择的网络资源,HTTP是一套计算机通过网络进行通信的规则。

    HTTP的请求与响应

    HTTP通信由两部分组成:客户端请求消息服务器响应消息

    浏览器发送HTTP请求的过程:

    当用户在浏览器的地址栏中输入一个URL并按回车键之后,浏览器会向HTTP服务器发送HTTP请求。HTTP请求主要分为“Get”和“Post”两种方法。

    当我们在浏览器输入URLhttp://www.baidu.com的时候,浏览器发送一个Request请求去获取http://www.baidu.com的html文件,服务器把Response文件对象发送回给浏览器。

    浏览器分析Response中的 HTML,发现其中引用了很多其他文件,比如Images文件,CSS文件,JS文件。 浏览器会自动再次发送Request去获取图片,CSS文件,或者JS文件。

    当所有的文件都下载成功后,网页会根据HTML语法结构,完整的显示出来了。

    URL(Uniform / Universal Resource Locator的缩写):统一资源定位符,是用于完整地描述Internet上网页和其他资源的地址的一种标识方法。

    基本格式:scheme://host[:port#]/path/…/[?query-string][#anchor]

    scheme:协议(例如:http, https, ftp)

    host:服务器的IP地址或者域名

    port#:服务器的端口(如果是走协议默认端口,缺省端口80)

    path:访问资源的路径

    query-string:参数,发送给http服务器的数据

    anchor:锚(跳转到网页的指定锚点位置)

    例如:

    ftp://192.168.0.116:8080/index

    http://www.baidu.com

    http://item.jd.com/11936238.html#product-detail

    客户端HTTP请求

    URL只是标识资源的位置,而HTTP是用来提交和获取资源。客户端发送一个HTTP请求到服务器的请求消息,包括以下格式:

    请求行、请求头部、空行、请求数据

    四个部分组成,下图给出了请求报文的一般格式。

    一个典型的HTTP请求示例

    请求方法

    GET https://www.baidu.com/ HTTP/1.1

    根据HTTP标准,HTTP请求可以使用多种请求方法。

    HTTP 0.9:只有基本的文本 GET 功能。

    HTTP 1.0:完善的请求/响应模型,并将协议补充完整,定义了三种请求方法: GET, POST 和 HEAD方法。

    HTTP 1.1:在 1.0 基础上进行更新,新增了五种请求方法:OPTIONS, PUT, DELETE, TRACE 和 CONNECT 方法。

    HTTP 2.0(未普及):请求/响应首部的定义基本没有改变,只是所有首部键必须全部小写,而且请求行要独立为 :method、:scheme、:host、:path这些键值对。

    HTTP请求主要分为Get和Post两种方法

    GET是从服务器上获取数据,POST是向服务器传送数据

    GET请求参数显示,都显示在浏览器网址上,HTTP服务器根据该请求所包含URL中的参数来产生响应内容,即“Get”请求的参数是URL的一部分。 例如:http://www.baidu.com/s?wd=Chinese

    POST请求参数在请求体当中,消息长度没有限制而且以隐式的方式进行发送,通常用来向HTTP服务器提交量比较大的数据(比如请求中包含许多参数或者文件上传操作等),请求的参数包含在“Content-Type”消息头里,指明该消息体的媒体类型和编码,

    注意:避免使用Get方式提交表单,因为有可能会导致安全问题。 比如说在登陆表单中用Get方式,用户输入的用户名和密码将在地址栏中暴露无遗。

    常用的请求报头

    1. Host (主机和端口号)

    Host:对应网址URL中的Web名称和端口号,用于指定被请求资源的Internet主机和端口号,通常属于URL的一部分。

    2. Connection (链接类型)

    Connection:表示客户端与服务连接类型

    Client 发起一个包含Connection:keep-alive的请求,HTTP/1.1使用keep-alive为默认值。

    Server收到请求后:

    如果 Server 支持 keep-alive,回复一个包含 Connection:keep-alive 的响应,不关闭连接;

    如果 Server 不支持 keep-alive,回复一个包含 Connection:close 的响应,关闭连接。

    如果client收到包含Connection:keep-alive的响应,向同一个连接发送下一个请求,直到一方主动关闭连接。

    keep-alive在很多情况下能够重用连接,减少资源消耗,缩短响应时间,比如当浏览器需要多个文件时(比如一个HTML文件和相关的图形文件),不需要每次都去请求建立连接。

    3. Upgrade-Insecure-Requests (升级为HTTPS请求)

    Upgrade-Insecure-Requests:升级不安全的请求,意思是会在加载 http 资源时自动替换成 https 请求,让浏览器不再显示https页面中的http请求警报。

    HTTPS 是以安全为目标的 HTTP 通道,所以在 HTTPS 承载的页面上不允许出现 HTTP 请求,一旦出现就是提示或报错。

    4. User-Agent (浏览器名称)

    User-Agent:是客户浏览器的名称,以后会详细讲。

    5. Accept (传输文件类型)

    Accept:指浏览器或其他客户端可以接受的MIME(Multipurpose Internet Mail Extensions(多用途互联网邮件扩展))文件类型,服务器可以根据它判断并返回适当的文件格式。

    举例:

    Accept: */*:表示什么都可以接收。

    Accept:image/gif:表明客户端希望接受GIF图像格式的资源;

    Accept:text/html:表明客户端希望接受html文本。

    Accept: text/html, application/xhtml+xml;q=0.9, image/*;q=0.8:表示浏览器支持的 MIME 类型分别是 html文本、xhtml和xml文档、所有的图像格式资源。

    q是权重系数,范围 0 =< q <= 1,q 值越大,请求越倾向于获得其“;”之前的类型表示的内容。若没有指定q值,则默认为1,按从左到右排序顺序;若被赋值为0,则用于表示浏览器不接受此内容类型。

    Text:用于标准化地表示的文本信息,文本消息可以是多种字符集和或者多种格式的;Application:用于传输应用程序数据或者二进制数据。详细请点击

    6. Referer (页面跳转处)

    Referer:表明产生请求的网页来自于哪个URL,用户是从该 Referer页面访问到当前请求的页面。这个属性可以用来跟踪Web请求来自哪个页面,是从什么网站来的等。

    有时候遇到下载某网站图片,需要对应的referer,否则无法下载图片,那是因为人家做了防盗链,原理就是根据referer去判断是否是本网站的地址,如果不是,则拒绝,如果是,就可以下载;

    7. Accept-Encoding(文件编解码格式)

    Accept-Encoding:指出浏览器可以接受的编码方式。编码方式不同于文件格式,它是为了压缩文件并加速文件传递速度。浏览器在接收到Web响应之后先解码,然后再检查文件格式,许多情形下这可以减少大量的下载时间。

    举例:Accept-Encoding:gzip;q=1.0, identity; q=0.5, *;q=0

    如果有多个Encoding同时匹配, 按照q值顺序排列,本例中按顺序支持 gzip, identity压缩编码,支持gzip的浏览器会返回经过gzip编码的HTML页面。如果请求消息中没有设置这个域服务器假定客户端对各种内容编码都可以接受。

    8. Accept-Language(语言种类)

    Accept-Langeuage:指出浏览器可以接受的语言种类,如en或en-us指英语,zh或者zh-cn指中文,当服务器能够提供一种以上的语言版本时要用到。

    9. Accept-Charset(字符编码)

    Accept-Charset:指出浏览器可以接受的字符编码。

    举例:Accept-Charset:iso-8859-1,gb2312,utf-8

    ISO8859-1:通常叫做Latin-1。Latin-1包括了书写所有西方欧洲语言不可缺少的附加字符,英文浏览器的默认值是ISO-8859-1.

    gb2312:标准简体中文字符集;

    utf-8:UNICODE 的一种变长字符编码,可以解决多种语言文本显示问题,从而实现应用国际化和本地化。

    如果在请求消息中没有设置这个域,缺省是任何字符集都可以接受。

    10. Cookie (Cookie)

    Cookie:浏览器用这个属性向服务器发送Cookie。Cookie是在浏览器中寄存的小型数据体,它可以记载和服务器相关的用户信息,也可以用来实现会话功能,以后会详细讲。

    11. Content-Type (POST数据类型)

    Content-Type:POST请求里用来表示的内容类型。

    举例:Content-Type = Text/XML; charset=gb2312:

    指明该请求的消息体中包含的是纯文本的XML类型的数据,字符编码采用“gb2312”。

    服务端HTTP响应

    HTTP响应也由四个部分组成,分别是:状态行、消息报头、空行、响应正文

    常用的响应报头(了解)

    理论上所有的响应头信息都应该是回应请求头的。但是服务端为了效率,安全,还有其他方面的考虑,会添加相对应的响应头信息,从上图可以看到:

    1. Cache-Control:must-revalidate, no-cache, private。

    这个值告诉客户端,服务端不希望客户端缓存资源,在下次请求资源时,必须要从新请求服务器,不能从缓存副本中获取资源。

    Cache-Control是响应头中很重要的信息,当客户端请求头中包含Cache-Control:max-age=0请求,明确表示不会缓存服务器资源时,Cache-Control作为作为回应信息,通常会返回no-cache,意思就是说,"那就不缓存呗"。

    当客户端在请求头中没有包含Cache-Control时,服务端往往会定,不同的资源不同的缓存策略,比如说oschina在缓存图片资源的策略就是Cache-Control:max-age=86400,这个意思是,从当前时间开始,在86400秒的时间内,客户端可以直接从缓存副本中读取资源,而不需要向服务器请求。

    2. Connection:keep-alive

    这个字段作为回应客户端的Connection:keep-alive,告诉客户端服务器的tcp连接也是一个长连接,客户端可以继续使用这个tcp连接发送http请求。

    3. Content-Encoding:gzip

    告诉客户端,服务端发送的资源是采用gzip编码的,客户端看到这个信息后,应该采用gzip对资源进行解码。

    4. Content-Type:text/html;charset=UTF-8

    告诉客户端,资源文件的类型,还有字符编码,客户端通过utf-8对资源进行解码,然后对资源进行html解析。通常我们会看到有些网站是乱码的,往往就是服务器端没有返回正确的编码。

    5. Date:Sun, 21 Sep 2016 06:18:21 GMT

    这个是服务端发送资源时的服务器时间,GMT是格林尼治所在地的标准时间。http协议中发送的时间都是GMT的,这主要是解决在互联网上,不同时区在相互请求资源的时候,时间混乱问题。

    6. Expires:Sun, 1 Jan 2000 01:00:00 GMT

    这个响应头也是跟缓存有关的,告诉客户端在这个时间前,可以直接访问缓存副本,很显然这个值会存在问题,因为客户端和服务器的时间不一定会都是相同的,如果时间不同就会导致问题。所以这个响应头是没有Cache-Control:max-age=*这个响应头准确的,因为max-age=date中的date是个相对时间,不仅更好理解,也更准确。

    7. Pragma:no-cache

    这个含义与Cache-Control等同。

    8.Server:Tengine/1.4.6

    这个是服务器和相对应的版本,只是告诉客户端服务器的信息。

    9. Transfer-Encoding:chunked

    这个响应头告诉客户端,服务器发送的资源的方式是分块发送的。一般分块发送的资源都是服务器动态生成的,在发送时还不知道发送资源的大小,所以采用分块发送,每一块都是独立的,独立的块都能标示自己的长度,最后一块是0长度的,当客户端读到这个0长度的块时,就可以确定资源已经传输完了。

    10. Vary: Accept-Encoding

    告诉缓存服务器,缓存压缩文件和非压缩文件两个版本,现在这个字段用处并不大,因为现在的浏览器都是支持压缩的。

    响应状态码

    响应状态代码有三位数字组成,第一个数字定义了响应的类别,且有五种可能取值。

    常见状态码:

    100~199:表示服务器成功接收部分请求,要求客户端继续提交其余请求才能完成整个处理过程。

    200~299:表示服务器成功接收请求并已完成整个处理过程。常用200(OK 请求成功)。

    300~399:为完成请求,客户需进一步细化请求。例如:请求的资源已经移动一个新地址、常用302(所请求的页面已经临时转移至新的url)、307和304(使用缓存资源)。

    400~499:客户端的请求有错误,常用404(服务器无法找到被请求的页面)、403(服务器拒绝访问,权限不够)。

    500~599:服务器端出现错误,常用500(请求未完成。服务器遇到不可预知的情况)。

    Cookie 和 Session:

    服务器和客户端的交互仅限于请求/响应过程,结束之后便断开,在下一次请求时,服务器会认为新的客户端。

    为了维护他们之间的链接,让服务器知道这是前一个用户发送的请求,必须在一个地方保存客户端的信息。

    Cookie:通过在 客户端 记录的信息确定用户的身份。

    Session:通过在 服务器端 记录的信息确定用户的身份。

    HTTP代理神器Fiddler

    Fiddler是一款强大Web调试工具,它能记录所有客户端和服务器的HTTP请求。 Fiddler启动的时候,默认IE的代理设为了127.0.0.1:8888,而其他浏览器是需要手动设置。

    工作原理

    Fiddler 是以代理web服务器的形式工作的,它使用代理地址:127.0.0.1,端口:8888

    Fiddler抓取HTTPS设置

    启动Fiddler,打开菜单栏中的 Tools > Telerik Fiddler Options,打开“Fiddler Options”对话框。

    对Fiddler进行设置:

    打开工具栏->Tools->Fiddler Options->HTTPS,

    选中Capture HTTPS CONNECTs (捕捉HTTPS连接),

    选中Decrypt HTTPS traffic(解密HTTPS通信)

    另外我们要用Fiddler获取本机所有进程的HTTPS请求,所以中间的下拉菜单中选中...from all processes (从所有进程)

    选中下方Ignore server certificate errors(忽略服务器证书错误)

    为 Fiddler 配置Windows信任这个根证书解决安全警告:Trust Root Certificate(受信任的根证书) 

    Fiddler 主菜单 Tools -> Fiddler Options…-> Connections

    选中Allow remote computers to connect(允许远程连接)

    Act as system proxy on startup(作为系统启动代理)

    重启Fiddler,使配置生效(这一步很重要,必须做)。 

    Fiddler 如何捕获Chrome的会话

    安装SwitchyOmega 代理管理 Chrome 浏览器插件

     如图所示,设置代理服务器为127.0.0.1:8888

    通过浏览器插件切换为设置好的代理。

    Fiddler界面

    设置好后,本机HTTP通信都会经过127.0.0.1:8888代理,也就会被Fiddler拦截到。

    请求 (Request) 部分详解

    Headers —— 显示客户端发送到服务器的 HTTP 请求的 header,显示为一个分级视图,包含了 Web 客户端信息、Cookie、传输状态等。

    Textview —— 显示 POST 请求的 body 部分为文本。

    WebForms —— 显示请求的 GET 参数 和 POST body 内容。

    HexView —— 用十六进制数据显示请求。

    Auth —— 显示响应 header 中的 Proxy-Authorization(代理身份验证) 和 Authorization(授权) 信息.

    Raw —— 将整个请求显示为纯文本。

    JSON - 显示JSON格式文件。

    XML —— 如果请求的 body 是 XML 格式,就是用分级的 XML 树来显示它。

    响应 (Response) 部分详解

    Transformer —— 显示响应的编码信息。

    Headers —— 用分级视图显示响应的 header。

    TextView —— 使用文本显示相应的 body。

    ImageVies —— 如果请求是图片资源,显示响应的图片。

    HexView —— 用十六进制数据显示响应。

    WebView —— 响应在 Web 浏览器中的预览效果。

    Auth —— 显示响应 header 中的 Proxy-Authorization(代理身份验证) 和 Authorization(授权) 信息。

    Caching —— 显示此请求的缓存信息。

    Privacy —— 显示此请求的私密 (P3P) 信息。

    Raw —— 将整个响应显示为纯文本。

    JSON - 显示JSON格式文件。

    XML —— 如果响应的 body 是 XML 格式,就是用分级的 XML 树来显示它 。

    接下来,让我们真正迈向我们的爬虫之路吧!

    urllib2库的基本使用

    所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。 在Python中有很多库可以用来抓取网页,我们先学习urllib2。

    urllib2 是 Python2.7 自带的模块(不需要下载,导入即可使用)

    urllib2 官方文档:https://docs.python.org/2/library/urllib2.html

    urllib2 源码:https://hg.python.org/cpython/file/2.7/Lib/urllib2.py

    urllib2在 python3.x 中被改为urllib.request

    urlopen

    我们先来段代码:

    执行写的python代码,将打印结果

    Power@PowerMac~$:python urllib2_urlopen.py

    实际上,如果我们在浏览器上打开百度主页, 右键选择“查看源代码”,你会发现,跟我们刚才打印出来的是一模一样。也就是说,上面的4行代码就已经帮我们把百度的首页的全部代码爬了下来。

    一个基本的url请求对应的python代码真的非常简单。

    Request

    在我们第一个例子里,urlopen()的参数就是一个url地址;

    但是如果需要执行更复杂的操作,比如增加HTTP报头,必须创建一个 Request 实例来作为urlopen()的参数;而需要访问的url地址则作为 Request 实例的参数。

    我们编辑urllib2_request.py

    运行结果是完全一样的:

    新建Request实例,除了必须要有 url 参数之外,还可以设置另外两个参数:

    data(默认空):是伴随 url 提交的数据(比如要post的数据),同时 HTTP 请求将从 "GET"方式 改为 "POST"方式。

    headers(默认空):是一个字典,包含了需要发送的HTTP报头的键值对。

    这两个参数下面会说到。

    User-Agent

    但是这样直接用urllib2给一个网站发送请求的话,确实略有些唐突了,就好比,人家每家都有门,你以一个路人的身份直接闯进去显然不是很礼貌。而且有一些站点不喜欢被程序(非人为访问)访问,有可能会拒绝你的访问请求。

    但是如果我们用一个合法的身份去请求别人网站,显然人家就是欢迎的,所以我们就应该给我们的这个代码加上一个身份,就是所谓的User-Agent头。

    浏览器 就是互联网世界上公认被允许的身份,如果我们希望我们的爬虫程序更像一个真实用户,那我们第一步,就是需要伪装成一个被公认的浏览器。用不同的浏览器在发送请求的时候,会有不同的User-Agent头。 urllib2默认的User-Agent头为:Python-urllib/x.y(x和y是Python主版本和次版本号,例如 Python-urllib/2.7)

    添加更多的Header信息

    在 HTTP Request 中加入特定的 Header,来构造一个完整的HTTP请求消息。

    可以通过调用Request.add_header()添加/修改一个特定的header 也可以通过调用Request.get_header()来查看已有的header。

    添加一个特定的header

    随机添加/修改User-Agent

    urllib2默认只支持HTTP/HTTPS的GET和POST方法

    urllib.urlencode()

    urllib 和 urllib2 都是接受URL请求的相关模块,但是提供了不同的功能。两个最显著的不同如下:

    urllib 仅可以接受URL,不能创建 设置了headers 的Request 类实例;

    但是 urllib 提供urlencode方法用来GET查询字符串的产生,而 urllib2 则没有。(这是 urllib 和 urllib2 经常一起使用的主要原因)

    编码工作使用urllib的urlencode()函数,帮我们将key:value这样的键值对转换成"key=value"这样的字符串,解码工作可以使用urllib的unquote()函数。(注意,不是urllib2.urlencode() )

    相关文章

      网友评论

        本文标题:python爬虫之scrapy

        本文链接:https://www.haomeiwen.com/subject/zyytgqtx.html