Scrapy入门

作者: 喵帕斯0_0 | 来源:发表于2018-05-19 16:04 被阅读6次

最近稍微学习了下爬虫框架,以前都是裸写Requests和Beautifulsoup来从网页中获取我想要的数据,为了后面高效的爬虫,觉得还是应该认真学习一个爬虫框架,在Scrapy和Pysipder之间进行比较,最终还是选择了Scrapy,其基于异步框架twisted,先从用法入手,学习的过程中应该也会稍微接触点源码。本博客会记录下博主学习Scrapy的过程。

相关资料

  1. 官网
  2. 官方Doc
  3. Github

环境搭建

Python版本:Python 3.6.5
安装方法:在类Linux/Unix下使用pip install scrapy安装

我是在Docker中进行开发的,也推荐大家使用Docker,真的方便很多(如何安装和搭建Docker,可以在网上搜索到很多资料)。下面是我的Dockerfile文件。

From python:3
WORKDIR /usr/src/app
RUN apt-get update \
        && apt-get -y  install vim \
        && apt-get -y  install iputils-ping \
        && pip install --no-cache-dir --upgrade pip \
        && pip install scrapy \
        && apt-get -y  remove --purge vim \
        && apt-get -y  remove --purge iputils-ping
  1. docker build -t python:scrapy .,生成一个安装scrapy镜像;
  2. docker run -it python:scrapy bash,进入docker环境。

这样的我们的环境就搭建好了。

Scrapy命令

Scrapy安装后会提供一个系统命令,如下:

root@e579691b5c9f:~/newproject# scrapy -h
Scrapy 1.5.0 - project: newproject

Usage:
  scrapy <command> [options] [args]

Available commands:
  bench         Run quick benchmark test
  check         Check spider contracts
  crawl         Run a spider
  edit          Edit spider
  fetch         Fetch a URL using the Scrapy downloader
  genspider     Generate new spider using pre-defined templates
  list          List available spiders
  parse         Parse URL (using its spider) and print the results
  runspider     Run a self-contained spider (without creating a project)
  settings      Get settings values
  shell         Interactive scraping console
  startproject  Create new project
  version       Print Scrapy version
  view          Open URL in browser, as seen by Scrapy

Use "scrapy <command> -h" to see more info about a command

简要讲一下会经常用到的命令:

1. 创建新项目

scrapy startproject projectname
该命令会在当前目录下创建一个新目录,并自动在目录下创建需要的文件,用tree命令来看下目录结构。

root@e579691b5c9f:~# tree newproject/
newproject/
├── newproject
│   ├── __init__.py
│   ├── __pycache__
│   ├── items.py
│   ├── middlewares.py
│   ├── pipelines.py
│   ├── settings.py
│   └── spiders
│       ├── __init__.py
│       └── __pycache__
└── scrapy.cfg

简单介绍下各个文件/目录的作用:

  1. scrapy.cfg:该文件所在的目录是项目的根目录,里面包含了项目部署的相关信息;
  2. items.py:定义了爬虫要爬去的字段;
  3. middlewares.py:定义相关的中间件,后面会知道如何编写中间件;
  4. settings.py:项目的配置文件
  5. pipelines.py:管道文件,抓取后的item会被送到pipeline,你可以对数据清洗、数据持久化保存等,这是爬去的内容最后会被送到的地方。
  6. spiders目录:定义爬虫逻辑的地方,自己编写的spider都放在这个文件下面。
2. 创建一个新spider

scrapy genspider spider_name domain
该命令会在项目下面按照模板创建一个新的spider,当然,可以使用-t template_name来指定使用的模板文件,scrapy提供了几种模板文件,具体可以使用命令scrapy genspider -l查看,默认使用basic模板文件。

3. 查看可用的spider

scrapy list
该命令会显示项目中可用的spider,同时也会进行语法检查。

4. 进入scrapy shell交互模式

scray shell [url]
该命令会进入scrapy shell模式,如果传了url,会自动从抓取url,并生成response对象,在这个模式下,可以进行简单的调试,用来看爬取规则是否生效。具体可见文档

5. 执行爬虫

scrapy crawl spider_name
该命令会用来执行爬虫,默认会在stdout打印出爬虫log,可以带命令--nolog来去小打印爬虫。还可以指定-o file_name来讲爬取的内容输出到文件,scrapy支持json/csv/xml等格式的文件。

本篇只介绍一些常用的命令,剩余的命令可以通过scraoy command -h来查看具体的用法。

相关文章

  • scrapy笔记

    1 scrapy的运行原理 参考:Learning Scrapy笔记(三)- Scrapy基础Scrapy爬虫入门...

  • Scrapy入门案例

    Scrapy入门案例 Scrapy教程: 官方 《Scrapy 1.5 documentation》 中文 《S...

  • scrapy小记

    scrapy入门学习地图 scrapy 框架:http://doc.scrapy.org/en/latest/to...

  • 28.scrapy的入门使用

    scrapy的入门使用 学习目标: 掌握 scrapy的安装 应用 创建scrapy的项目 应用 创建scrapy...

  • scrapy入门使用及pycharm远程调试

    一·scrapy的入门使用 scrapy的安装 创建scrapy项目 创建scrapy爬虫:在项目目录下执行 运行...

  • (大纲37)Python07爬虫 第4节、scrapy框架

    7、爬虫4、scrapy框架 1.4.0Scrapy框架1.4.1配置安装1.4.2入门案例1.4.3Scrapy...

  • scrapy 学习日记

    文章出处:【scrapy】学习Scrapy入门 整体结构 引擎(Scrapy Engine),用来处理整个系统的数...

  • scrapy折腾系列01

    scrapy爬虫折腾 1、scrapy爬虫入门 scrapy是框架,好比一辆车子,beautifulsoup好比一...

  • DC-01:爬虫框架scrapy入门

    本主题主要是scrapy入门,包含内容如下:  1. Scrapy框架环境搭建;  2. 理解scrapy框架结...

  • Scrapy简记

    摘自Scrapy 中文文档 一:入门 scrapy startproject tutorial创建新的爬虫项目 s...

网友评论

    本文标题:Scrapy入门

    本文链接:https://www.haomeiwen.com/subject/qbfadftx.html