Scrapy 框架
- Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。
- 框架的力量,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,非常之方便。
- Scrapy 使用了 Twisted['twɪstɪd] 异步网络框架来处理网络通讯,可以加快我们的下载速度,不用自己去实现异步框架,并且包含了各种中间件接口,可以灵活的完成各种需求。
Scrapy是用python写的一个爬虫框架,当然如果只是写一些简单爬虫,python自己就有做爬虫的库,scrapy只是更加流水线化,各部分分工更加清晰.它的结构如下图:
scrapy框架流程图scrapy框架各个模块分别是:
① Scrapy Engine
引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。 详细内容查看下面的数据流(Data Flow)部分
② 调度器(Scheduler)
调度器从引擎接受request并将他们入队,以便之后引擎请求他们时提供给引擎
③ 下载器(Downloader)
下载器负责获取页面数据并提供给引擎,而后提供给spider
④ Spiders
Spider是Scrapy用户编写用于分析response并提取item(即获取到的item)或额外跟进的URL的类。 每 个spider负责处理一个特定(或一些)网站
⑤ Item Pipeline
Item Pipeline负责处理被spider提取出来的item。典型的处理有清理、 验证及持久化(例如存取到数 据库中)
⑥ 下载器中间件(Downloader middlewares)
下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理Downloader传递给引擎的 response。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能
⑦ Spider中间件(Spider middlewares)
Spider中间件是在引擎及Spider之间的特定钩子(specific hook),处理spider的输入(response)和输出 (items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能
流程归纳:
1.首先下载器下载request回执的html等的response
2.然后下载器传给爬虫解析
3.接着爬虫解析后交给调度器过滤,查重等等
4.最后交给管道,进行爬取数据的处理
如何安装scrapy?
Scrapy的安装介绍
Scrapy框架官方网址:http://doc.scrapy.org/en/latest
Scrapy中文维护站点:http://scrapy-chs.readthedocs.io/zh_CN/latest/index.html
升级pip版本
pip3 install --upgrade pip
利用pip安装scrapy
pip3 install scrapy
Ubuntu 安装方式
sudo pip3 install scrapy
如果不成功,可以尝试添加一些依赖库
sudo apt-get install python3-dev python-pip libxml2-dev libxslt1-dev zlib1g-dev libffi-dev libssl-dev
实战应用
1.创建爬虫项目
(1).scrapy startproject 项目名称
(2).cd进入 文件夹(与项目名称同名) cd到spider文件夹
(3).scrapy genspider 爬虫名称 域
通用爬虫:scrapy genspider -t crawl 爬虫名称 域
2.编写items.py
在这里定义字段
字段名 = scrapy.Field()
3.编写spider(爬虫文件)
先爬后取(获取整个网页内容,再取出有用部分)
name:爬虫的识别名,它必须是唯一的,在不同的爬虫中你必须定义不同的名字.
start_urls:包含了Spider在启动时进行爬取的url列表。因此,第一个被获取到的页面将是其中之一。后续的URL则从初始的URL获取到的数据中提取。我们可以利用正则表达式定义和过滤需要进行跟进的链接。
parse():是spider的一个方法。被调用时,每个初始URL完成下载后生成的 Response 对象将会作为唯一的参数传递给该函数。该方法负责解析返回的数据(response data),提取数据(生成item)以及生成需要进一步处理的URL的 Request 对象。
这个方法负责解析返回的数据、匹配抓取的数据(解析为 item )并跟踪更多的 URL。
4.存储内容---管道(Pipline)
数据持久化 :(切记激活管道)
1.可以自定义数据管道
def init(self,xxx,xxx,xxx):
可以设置一些参数,(比如,创建数据库连接,打开文件等等)
@classmethod
def from_crawler(cls,crawler):
crawler:包含了爬虫的一些核心组件,
可以获取settings中的一些参数
return cls(xxx,xxx,xxx)
def open_spider(self,spider):
可选方法,在爬虫开始的时候会调用
def process_item(self,item,spider):
所有的item,都会经过这个方法
在这里做数据持久化(pymongo,mysql)
方法1
if isinstance(item,类名):
做数据插入操作
elif isinstance(item,类名):
做数据插入操作
方法2
1.在item对应的类中,我们定义一个方法,返回sql语句和要插入的数据
2.使用item调用这个方法,得到sql语句和要插入的管道
3.执行插入操作
return item (如果将item,传递给下一个管道,必须要return)
def close_spider(self,spider):
可选方法,在爬虫结束的时候会调用
在这里关闭数据库连接,关闭文件等
网友评论