美文网首页
scrapy初探(二)实例

scrapy初探(二)实例

作者: Gavin_hello | 来源:发表于2017-12-29 18:19 被阅读0次

1.新建scrapy工程

命令行下执行

gavin@gavin:~/PycharmProjects/scrapy$ mkdir tutorial
gavin@gavin:~/PycharmProjects/scrapy$ scrapy startproject tutorial

gavin@gavin:~/PycharmProjects/scrapy$ tree

生成目录如下:

scrapy.png

主要文件介绍,
items.py:用来定义要抓取的内容
piplines:用来对内容进行处理,包括过滤和输出。
setting:配置文件
dmoz_spider.py:这是主要的程序,用来提取网页的内容。

2.定义item

item在items.py文件中进行定义,我们实例用来抓取标题,连接,描述和价格

import scrapy


class TutorialItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    pass

class DmozItem(scrapy.Item):
    title = scrapy.Field()
    link = scrapy.Field()
    desc = scrapy.Field()
    price = scrapy.Field()

3.定义pipline

要想将数据写入文件,首先我们需要设置setting.py文件:

ITEM_PIPELINES = {
   'tutorial.pipelines.TutorialPipeline':300,
   'tutorial.pipelines.MysqlPipeline':400
}

在pipline文件中我们将获取到的数据输出到文件和数据库中,下面分块说明一下:

下面是输出到文件的代码

import json

class TutorialPipeline(object):
###初始化文件
    def __init__(self):
        self.file=open('item','w',encoding='utf-8')

###写文件
    def process_item(self,item,spider):
        line=json.dumps(dict(item), ensure_ascii=False)###解析成json的数据
        self.file.write(line +"\r\n" )###写入到文件
        return item

###关闭文件
     def close_spider(self, spider):
           self.file.close()

下面是输出到数据库的代码

import json
import pymysql


class MysqlPipeline(object):
###初始化数据库文件,打开数据库连接连接
    def __init__(self):
        config = {
            'host': '192.168.1.200',
            'port': 3308,
            'user': 'root',
            'password': '1qaz@WSX',
            'db': 'data_department',
            'charset':'utf8',

        }
        self.connect = pymysql.connect(**config)
        self.cursor = self.connect.cursor()

###解析数据并且入库
    def process_item(self,item,spider):

        title = item['title']

        link = item['link']

        des = item['desc']

        price = item['price']

        insert_sql = """
            insert into zk_cylw(title,link,des,price)values(%s,%s,%s,%s);
        """
        para = (title,link,des,price)

        self.cursor.execute(insert_sql,para)
        self.connect.commit()
        return item

####断开数据库连接
    def close_spider(self,spider):
        self.cursor.close()
        self.connect.close()

4.爬虫内容

下面是爬虫的主要代码

import sys
sys.path.append('/home/gavin/PycharmProjects/scrapy/tutorial')
from scrapy.spiders import Spider
from scrapy.selector import Selector
from tutorial.items import DmozItem
from scrapy import http

class DmozSpider(Spider):
    name = "dmoz" 
    start_urls = [
        "http://www.ushsh.com/index.php?route=product/productall&page=1",

    ]

    def parse(self, response):
        sel = Selector(response)
        # sites = sel.xpath('//div[@class="name"]/a')
        sites = sel.css('div.product-grid > div')
        items = []
        for site in sites:
            item = DmozItem()
            title = site.css('div.name > a::text').extract()[0]
            link = site.css('div.name > a::attr("href")').extract()[0]
            des = site.css('div.description::text').extract()[0]
            price = site.css('div.price::text').extract()[0].replace(' ','').replace('\n','').replace('\r','')

            item['title'] = title

            item['link'] = link
            # item['desc'] = des
            item['price'] = price
            items.append(item)

####用回调函数爬取二级页面内容
            yield http.Request(url=item["link"], meta={'item': item}, callback=self.parseDetail, dont_filter=True)
            # yield item
####获取下一页的数据
        nextPage = sel.xpath('//div[@class="links"]/a/@href').extract()[-2]
        if nextPage:
            next = nextPage
            yield http.Request(next, callback=self.parse)

#####二级页面数据处理
    def  parseDetail(self,response):
        item = response.meta['item']


        selector = Selector(response)
        des = selector.xpath('//meta[@name="description"]/@content').extract()[-1]
        item['desc'] = des
        yield item

5.编写运行代码scrapy_start.py

将scrapy_start.py文件放到和items.py文件同级的文件夹下



from scrapy.cmdline import execute
import sys
import os
sys.path.append(os.path.dirname(os.path.abspath(__file__)))

##dmoz是爬虫主要代码中的name的值
def main():
    execute(['scrapy','crawl','dmoz'])

if __name__ == '__main__':
    main()

相关文章

  • scrapy初探(二)实例

    1.新建scrapy工程 命令行下执行 生成目录如下: 主要文件介绍,items.py:用来定义要抓取的内容pip...

  • @synchronized

    一、初探 1、实例一 2、实例二 3、synchronized探索 3.1 打开汇编 二、源码探索 1、objc4...

  • 爬虫初探-Scrapy

    爬虫初探-Scrapy Scrapy 资料 官方文档永远是首选,建议把 tutorial 完整的过一遍。 网址:h...

  • 初探Scrapy

    第一次做笔记,写得不好,请各位多多包涵。 我的操作系统是Ubuntu 16.04 LTS 64 位。Scrapy框...

  • scrapy初探

    scrapy scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。可以应用在包括数据挖掘,信息处理...

  • Scrapy 初探

    读者最好对 Python 和爬虫有一些了解,所以关于 Scrapy 一些信息比如如何安装的方法等我就不介绍了。 ...

  • scrapy 源代码阅读笔记(0)-- 背景

    初探 scrapy可以服务与中小型爬虫项目,异步下载性能很出色,(50M电信,scrapy单进程,半小时,最高纪录...

  • scrapy架构初探

    scrapy架构初探 引言 Python即时网络爬虫启动的目标是一起把互联网变成大数据库。单纯的开放源代码并不是开...

  • scrapy 信号槽的使用

    scrapy文档讲了scrapy的信号,但没有说明具体怎么用,下面是实例 在spider类下 spider类初始化...

  • scrapy框架

    一、scrapy简介 二、scrapy原理 三、scrapy工作流程 四、scrapy框架的创建 五、scrapy...

网友评论

      本文标题:scrapy初探(二)实例

      本文链接:https://www.haomeiwen.com/subject/oadzixtx.html