Scrapy入门教程

作者: ASulee | 来源:发表于2016-06-21 16:58 被阅读742次

    Scrapy 入门教程###

    安装Scrapy lxml很容易出问题 。

    1: 创建一个Scrapy 项目
    scrapy starproject tutorial ## tutorial是项目名称
    会自动创建tutorial目录:
    scrapy.cfg : 项目的配置文件
    item.py : 项目中的item 文件
    pipelines.py :  项目中的piplines 文件
    settings.py : 项目中的设置文件
    spiders : 放置spider代码的目录
    
    

    定义 Item

    em
    是保存爬取到的数据的容器;其使用方法和python字典类似, 并且提供了额外保护机制来避免拼写错误导致的未定义字段错误。
    类似在ORM中做的一样,您可以通过创建一个 scrapy.Item
    类, 并且定义类型为 scrapy.Field
    的类属性来定义一个Item。 (如果不了解ORM, 不用担心,您会发现这个步骤非常简单)
    首先根据需要从dmoz.org获取到的数据对item进行建模。 我们需要从dmoz中获取名字,url,以及网站的描述。 对此,在item中定义相应的字段。编辑 tutorial
    目录中的 items.py
    文件:

    
    
    import scrapy
    
    
    class DmozItem(scrapy.Item):
        # define the fields for your item here like:
        # name = scrapy.Field()
        title = scrapy.Field()
        link = scrapy.Field()
        desc = scrapy.Field()
        ```
    
    ###编写一个爬虫(Spider)###
    为了创建一个Spider , 必须继承`scrapy.Spider`类, 并且定义以下三个属性:
    - `name` :  用于区别Spider, 名字需要唯一
    - `start_url` : 包含了Spider 启动的时候需要抓取了url列表,因此,第一个被抓取的页面将是其中之一,后续的URL则从初始的URL获取到的数据提取
    - `parse()` :  是spider的一个方法。 被调用时,每个初始URL完成下载后生成的 [Response
    ](http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/request-response.html#scrapy.http.Response) 对象将会作为唯一的参数传递给该函数。 该方法负责解析返回的数据(response data),提取数据(生成item)以及生成需要进一步处理的URL的 [Request
    ](http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/request-response.html#scrapy.http.Request) 对象。 
    以下为我们的第一个Spider代码,保存在 tutorial/spiders
     目录下的 dmoz_spider.py
     文件中:
    
    

    import scrapy

    class DmozSpider(scrapy.spiders.Spider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = [
    "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
    "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
    ]

    def parse(self, response):
        filename = response.url.split("/")[-2]
        with open(filename, 'wb') as f:
            f.write(response.body)
    
    启用命令 : scrapy craml  项目名
    Scrapy为Spider的 start_urls
     属性中的每个URL创建了 [scrapy.Request
    ](http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/request-response.html#scrapy.http.Request) 对象,并将 parse
     方法作为回调函数(callback)赋值给了Request。
    Request对象经过调度,执行生成 [scrapy.http.Response
    ](http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/request-response.html#scrapy.http.Response) 对象并送回给spider [parse()
    ](http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/spiders.html#scrapy.spider.Spider.parse) 方法。
    
    ###提取 Item ###
    Scrapy 使用基于XPath 和 CSS 表达机制, Scrapy Selectors 
    
    列XPath 表达式对应了含义:
    - `/html/head/title` : 选择HTML 中`<head>` 标签内的`<title>`元素
    - `/html/head/title/text()` : 选择上面提到的`<title>`元素的文字
    - `//td` :选择所有的`<td>`元素
    - `//div[@class='mine']` : 选择所有带具有`class='mine'` 属性的`div`元素
    
    为了配合XPath , Scrapy 除了`selector` 之外,还提供了方法避免每次response 中提取数据生成selector的麻烦。
    
    Selector 有四个基础方法
    - `xpath()`  : 传入xpath表达式, 返回该表达式对应的所有selector list 列表
    - `css()` : 传入CSS 表达式, 返回表达式内所有selector list 列表
    - `extract` :序列化该节点为unicode字符串并返回list
    - `re()` :  根据传入的正则表达式对数据进行提取,返回unicode字符串list列表
    
    
    ### Spider 参数 ###
    在运行`crawl` 可以添加 `-a ` 可以传递Spider参数:
      `scrapy crawl  <name> -a category=electronics`
    Spider在构造器(constructor)中获取参数
    
    
    
    ###Spider###
    `name` :  定义名称
    `allowed_domains` : 可选。包含了spider允许爬取的域名(domain)列表(list)。 当 [OffsiteMiddleware
    ](http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/spider-middleware.html#scrapy.contrib.spidermiddleware.offsite.OffsiteMiddleware) 启用时, 域名不在列表中的URL不会被跟进。
    `start_urls` : URL列表。当没有制定特定的URL时,spider将从该列表中开始进行爬取。 因此,第一个被获取到的页面的URL将是该列表之一。 后续的URL将会从获取到的数据中提取。
    `start_requests()`: 
    该方法必须返回一个可迭代对象(iterable)。该对象包含了spider用于爬取的第一个Request。
    当spider启动爬取并且未制定URL时,该方法被调用。 当指定了URL时,[make_requests_from_url()
    ](http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/spiders.html#scrapy.spider.Spider.make_requests_from_url) 将被调用来创建Request对象。 该方法仅仅会被Scrapy调用一次,因此您可以将其实现为生成器。
    该方法的默认实现是使用 [start_urls
    ](http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/spiders.html#scrapy.spider.Spider.start_urls) 的url生成Request。
    如果您想要修改最初爬取某个网站的Request对象,您可以重写(override)该方法。 例如,如果您需要在启动时以POST登录某个网站,你可以这么写:
    

    def start_requests(self):
    return [scrapy.FormRequest("http://www.example.com/login",
    formdata={'user': 'john', 'pass': 'secret'},
    callback=self.logged_in)]

    def logged_in(self, response):
    # here you would extract links to follow and return Requests for
    # each of them, with another callback
    pass

    `log(message[, level, componet])`: 日志
    
    
    

    相关文章

      网友评论

      • 漓墨泫雨:spider.py有一部分代码没引到代码块里

      本文标题:Scrapy入门教程

      本文链接:https://www.haomeiwen.com/subject/iujarttx.html