美文网首页
CrawlSpider爬虫

CrawlSpider爬虫

作者: IT大牛辉 | 来源:发表于2018-12-08 16:48 被阅读0次

    CrawlSpider它是Spider的派生类,Spider类的设计原则是只爬取start_url列表中的网页,而CrawlSpider类定义了一些规则Rule来提供跟进链接的方便的机制,从爬取的网页结果中获取链接并继续爬取的工作.

    一、创建crawlspider爬虫文件

    1、创建项目

    scrapy startproject 项目名称
    

    2、创建CrawlSpider爬虫

    • 首先进入到Spider文件夹下
    scrapy genspider -t crawl 爬虫名称 域
    

    二、spider文件(爬虫文件)

    设置rules

        name = 'xcfCrawlSpider'
        #设置允许爬取的域
        allowed_domains = ['xiachufang.com']
        #设置起始的url
        start_urls = ['http://www.xiachufang.com/category/']
        #rules:是一个元组(列表),里面存放的是规则Rule规则对象 可以设置多个规则
        rules = (
            Rule(
                #匹配你要爬取的url
                LinkExtractor(allow=r'.*?/category/\d+/'),
                #回调函数
                callback='parse_item',
                #设置是否要跟进
                follow=True,
    #          指定一个方法,可以在这个方法中拦截request对象
                process_links='check_category_url'
            ),
        )
    #CrawlSpider使用rules属性来决定爬虫的爬取规则,将匹配后的url请求提交给引擎,完成爬取工作。
    注意:提取匹配,并使用spider的parse方法进行分析;并跟进链接(没有callback意味着follow默认为True)
    

    三、设置settings.py

    #设置是否遵守robot协议
    1.ROBOTSTXT_OBEY = False 
    #设置下载延时
    2.DOWNLOAD_DELAY = 3 
    #3.设置全局的Header
    DEFAULT_REQUEST_HEADERS = {
        'User-Agent':' Mozilla/5.0 (Macintosh; Intel Mac OS X 10.12; rv:59.0) Gecko/20100101 Firefox/59.0',
    }
    
    4.激活pipelines数据处理管道
    
    ITEM_PIPELINES = {
       'xiachufang.pipelines.XiachufangPipeline': 300,
    }
    
    #关于数据库的相关配置
    MYSQL_HOST = '127.0.0.1'
    MYSQL_PORT = 3306
    MYSQL_USER = ''
    MYSQL_PWD = ''
    MYSQL_DB = ''
    CHARSET = 'utf8'
    

    四、items.py:定义要爬取的字段

    例如

    #要到入scrapy模块
    import scrapy
    
    #接下来要定义你要爬取的字段
    class XiachufangItem(scrapy.Item):
        #图片链接
        coverImage = scrapy.Field()
        #名称
        title = scrapy.Field()
        #评分
        score = scrapy.Field()
    

    五、piplines.py:数据管道

    #在这里导入你要保存的数据库
    #mysql
    import mysql
    class XiachufangPipeline(object):
    #初始化__init__方法
        def __init__(self,host,port,user,pwd,db,charset):
    
            self.client = pymysql.Connect(host,user,pwd,db,port,charset=charset)
            self.cursor = self.client.cursor()
    
        @classmethod
    #配置数据库
        def from_crawler(cls,crawler):
            host = crawler.settings['MYSQL_HOST']
            port = crawler.settings['MYSQL_PORT']
            user = crawler.settings['MYSQL_USER']
            pwd = crawler.settings['MYSQL_PWD']
            db = crawler.settings['MYSQL_DB']
            charset = crawler.settings['CHARSET']
    
            return cls(host,port,user,pwd,db,charset)
    
    
        def process_item(self, item, spider):
    
            sql,data = item.insert_data_to_db(dict(item))
    
            try:
                self.cursor.execute(sql,data)
                self.client.commit()
                print('插入成功')
            except Exception as err:
                print(err)
                self.client.rollback()
    
            return item
    
        def close_spider(self,spider):
            self.cursor.close()
            self.client.close()、
    

    运行:
    scrapy crawl xcfcrawlspider

    相关文章

      网友评论

          本文标题:CrawlSpider爬虫

          本文链接:https://www.haomeiwen.com/subject/bliqhqtx.html