为什么使用Scrapy?
我们可以用requests和beautifulsoup完成一个实用的爬虫,但如果想大规模爬取的话,我们需要学习Scrapy这个优秀Python框架,学习它的哲学思想,可以帮助我们更好写自己的爬虫。
事前准备
由于Windows存在许多莫名其妙的坑,所以建议安装anaconda这个优秀的python发行版,并且在anaconda目录添加到环境变量中。
- 使用<code>create -n scrapy_app python=2 scrapy</code>创建一个预装scrapy的虚拟环境。
- 在cmd下启动虚拟环境<code> activate scrapy_app</code>。
- <code>conda install -c scrapinghub scrapy</code>安装其他必须库
- <code>scrapy bench </code>验证能否正常工作
官方教程
1.新建项目<code>scrapy startproject tutorial</code>
这个命令将会创建如下内容:
2.定义Item
items用来装scraped data,也就是从网页提取的数据,是一类简单的Python字典。比如我们想从stackoverflow提取问题名、链接和描述。那么就可以在items.py做如下定义。
import scrapy
class DmozItem(scrapy.Item):
# define the fields for your item here like:
# name = scrapy.Field()
title = scrapy.Field()
link = scrapy.Field()
desc = scrapy.Field()
3.第一个爬虫(spider)
爬虫是你自定义的类,用于让Scrapy从某个网站提取信息。你需要定义起始的URL(start_urls),如何跟踪链接以及如何检索网页内容并进行提取。
我们可以在命令行中输入<code>scrapy genspider -t basic domz dmoz.org</code>创建一个爬虫,得到spiders/domz.py。
# -- coding: utf-8 --
import scrapy
class DomzSpider(scrapy.Spider):
name = "domz" #用于定位爬虫
allowed_domains = ["dmoz.org"] #限定域名,就不会爬到baidu.com了
start_urls =[
"http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
"http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
] # 起始的URL
def parse(self, response):
filename = response.url.split("/")[-2]+'.html'
with open(filename,'wb') as f:
f.write(response.body)
# parse是Scarpy在请求未指定回调时,用于处理下载响应的默认回调。
进一步想了解scrapy.Spider的话看这里。
4.工作吧!爬虫
命令行下输入<code>scrapy crawl domz</code>。
结束后会在项目文件下载生成两个HTML文件。单单下载网页并没有意义,我们需要从网页从提取数据才有意义。
5.数据提取
Scrapy使用基于Xpath或CSS表达式的Scrapy Selectors提取网页数据。
让我们在shell下使用一下Scrapy Selectors吧。<code>scrapy shell "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/"</code>
In [1]: response.xpath('//title')
Out[1]: [<Selector xpath='//title' data=u'<title>Open Directory - Computers: Progr'>]
In [2]: response.xpath('//title').extract()
Out[2]: [u'<title>Open Directory - Computers: Programming: Languages: Python: Books</title>']
In [3]: response.xpath('//title/text()')
Out[3]: [<Selector xpath='//title/text()' data=u'Open Directory - Computers: Programming:'>]
In [4]: response.xpath('//title/text()').extract()
Out[4]: [u'Open Directory - Computers: Programming: Languages: Python: Books']
In [5]: response.xpath('//title/text()').re('(\w+):')
Out[5]: [u'Computers', u'Programming', u'Languages', u'Python']
因此,我们可以改写之前dmoz.py中的parse部分。
.......
def parse(self, response):
for sel in response.xpath('//ui/li'):
title = sel.xpath('a/text()').extract()
link = sel.xpath('a/@href').extract()
desc = sel.xpath('text()').extract()
print title, link, desc
重新运行<code>scrapy crawl domz</code>
这里我们只是把结果打印出来,实际运行应该是把数据保存下来,首先需要用到之前定义的DmozItem先结构化数据, 继续改写。
from tutorial.items import DmozItem
...
def parse(self, response):
for sel in response.xpath('//ui/li'):
item = DmozItem()
item['title']' = sel.xpath('a/text()').extract()
item['link'] = sel.xpath('a/@href').extract()
item['desc'] = sel.xpath('text()').extract()
yield item
重新运行<code>scrapy crawl domz</code>
6.链接跟踪
假设你不满足爬取起始页面,想继续爬取起始页面中你感兴趣的链接,那么我么就需要进一步改写之前的爬虫了。
def parse(self, response):
for href in response.css("ul.directory.dir-col > li > a::attr('href')"):
url = response.urljoin(href.extract())#构建绝对路径的URL
yield scrapy.Request(url, callback=self.parse_dir_contents)
def parse_dir_contents(self, response):
for sel in response.xpath('//ui/li'):
item = DmozItem()
item['title']' = sel.xpath('a/text()').extract()
item['link'] = sel.xpath('a/@href').extract()
item['desc'] = sel.xpath('text()').extract()
yield item
这里我们使用parse函数获取网页的url,然后通过scrapy.Request对获取的每一个url调用parse_dir_contents函数,提取数据。
7.数据储存
数据储存有很多方式,可以放在数据库中,由于是教程,我们使用最简单的<code>scrapy crawl domz -o items.json</code>把数据放在json文件中。
网友评论