scrapy

作者: 秦琴er | 来源:发表于2018-06-21 15:00 被阅读0次

scrapy,一种深度爬虫的框架,在这个里面,不需要我们在设计爬取步骤,一个已经写好的模板

首先你现在cmd上运行

scrapy startproject 项目名

在spider文件夹下,创建自己的爬虫项目

项目

首先import scrapy

#创建一个类

class Spider(scrapy.Spider):

eg1:#创建一个start_requests方法,这个方法是是scrapy自带的,用于给引擎模块网站,然后用下载模块下载网站内容

    def start_request:

        name = ‘spidername’

        #urls里是需要爬取的网址

        urls = []

        for url in urls:

            #这一步交给引擎爬取内容,返回parse方法

            yield scrapy.Request(url, callback=self.parse)

eg2:#用上面的方法有时太过繁琐,可以把上面的直接省略成一步

    #这个可以把URL和请求简略成一步

    start_urls = []

    #不过这样写了,就必须使用scrapy自带的parse方法

    #在这个方法中,可以用正则或者是xpath来获取爬取的内容

    def parse:

        #在parse中添加这个,可以第二次爬虫链接

        yield scrapy.Request(url,callback=self.parse)

 当你想要运行爬虫的时候,需要在cmd中输入:scrapy crawl  spidername

相关文章

  • 简单 Scrapy 使用小结

    Scrapy 安装Scrapy pip install scrapy Scrapy Doc 查看Scrapy的文档...

  • scrapy框架

    一、scrapy简介 二、scrapy原理 三、scrapy工作流程 四、scrapy框架的创建 五、scrapy...

  • Scrapy笔记

    Scrapy笔记 安装scrapy框架: 安装scrapy:通过pip install scrapy即可安装。 如...

  • scrapy笔记

    1 scrapy的运行原理 参考:Learning Scrapy笔记(三)- Scrapy基础Scrapy爬虫入门...

  • Scrapy基础(一): 安装和使用

    安装 新建scrapy项目 目录 scrapy模板 使用pycharm调试scrapy执行流程 scrapy 终端...

  • python爬虫13:scrapy

    scrapy的结构 scrapy的工作原理 scrapy的用法

  • Scrapy笔记

    Scrapy笔记 pip 指定源安装模块 创建Scrapy项目 创建Scrapy爬虫程序 启动Scrapy爬虫 在...

  • PyCharm运行和调试Scrapy

    前言: PyCharm运行和调试Scrapy,首先需要安装Scrapy,安装Scrapy请点链接Scrapy的安装...

  • 11- Scrapy-Redis分布式

    Scrapy和Scrapy-Redis的区别 安装Scrapy-Redis Scrapy-Redis介绍 提供了下...

  • scrapy框架基本使用

    scrapy基本介绍 scrapy VS requests Mac安装 conda install scrapy ...

网友评论

    本文标题:scrapy

    本文链接:https://www.haomeiwen.com/subject/nfvtyftx.html