PW05

作者: Sirius_Y | 来源:发表于2018-07-06 02:57 被阅读0次

一、创建爬虫项目

通过xshell连接了服务器,并在服务器中输入scrapy startproject quetos创建项目,项目名quotes。


二、定义item

将quotes文件夹中的item.py下载并修改,代码如下:

class QuotesItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    content = scrapy.Field()
    author = scrapy.Field()
    tags = scrapy.Field()

三、编写爬虫文件

创建quotesspider.py,并上传至spider文件夹中。quotesspider代码如下:

import scrapy
from quotes.items import QuotesItem

class quotesSpider(scrapy.Spider):
    name = 'quotes'
    start_urls = ['http://quotes.toscrape.com/page/1']

    def parse(self, response):
        for motto in response.xpath('//div[@class="quote"]'):
            item = QuotesItem()
            item['content'] = motto.xpath('./span[@class="text"]/text()').extract_first()
            item['author'] = motto.xpath('.//small[@class="author"]/text()').extract_first()
            item['tags'] = motto.xpath('.//a[@class="tag"]//text()').extract()
            yield item
        
        next_page = response.xpath('//a[contains(text(),"Next")]/@href').extract_first()
        if next_page:
            next_page = response.urljoin(next_page)
            yield scrapy.Request(next_page, callback=self.parse)

四、爬虫结果

输入scrapy crawl quotesspider -o quotes.json,爬取结果保存在quotes.json文件里。部分爬取结果如下:

相关文章

  • PW05

    一、创建爬虫项目 通过xshell连接了服务器,并在服务器中输入scrapy startproject queto...

  • PW05格言网的数据采集

    实验目标 对格言网的数据进行采集 实验过程 1 确定爬虫网站 首先确定好我们要爬取的网站,并利用开发者工具查看该网...

  • PW05——Scrapy抓取热门标签下的名人名言

    一、抓取名人名言 名人名言的地址:http://quotes.toscrape.com/1.查看网页代码,获取待抓...

网友评论

      本文标题:PW05

      本文链接:https://www.haomeiwen.com/subject/rqwmuftx.html