美文网首页
scrapy框架爬取数据并写入数据库

scrapy框架爬取数据并写入数据库

作者: HCZd | 来源:发表于2019-07-25 18:15 被阅读0次

写入两个数据库,如果需要一个,按照其中一个执行就可以:
①、MongoDB
②、Mysql

一、创建数据库

1、使用虚拟机安装centos7,并安装docker(百度有教程)
2、docker修改下载源(不改也行,改了下载速度更快)
3、docker下载mongo与Mysql镜像文件

docker pull mongo  #下载mongo镜像文件
docker pull mysql   #下载mysql镜像文件

3、启动镜像文件

#启动mongo数据库
docker run -d --name mongo -p 27017:27017 -v /home/docker/mongo.27017/datadb:/data/db -v /home/docker/mongo.27017/dataconfigdb:/data/dataconfigdb mongo

#启动Mysql数据库  
docker run --name mysql -p 3306:3306 -e MYSQL_ROOT_PASSWORD='设置密码' -d mysql:latest  #初始账户为root

启动mongo 注释:
run:启动镜像;-d: 后台启动方式;-name:自定义名称;-p :映射端口(本机未占用的端口号);-v :挂载数据目录和配置目录; mongo:3.6.9 :启动的镜像版本
启动mysql

4、进入运行容器

docker  exec -it  容器名  bash  #mongo或mysql(自己刚刚定义的启动容器名)

5、创建用户

MongoDB:

mongo   #进入mongoshell 
进入mongo数据库

创建用户

db.createUser({user:"admin", pwd:"0000", roles:["root"]}); #创建admin账户

Mysql

#输入运行账户
mysql -uroot -p -h localhost
#弹出来Enter password:   输入密码:(运行镜像时创建的)
成功运行Mysql

6、使用可视化工具连接数据库,验证创建成功
使用navicat连接数据库地址,验证是够可正确连接。

二、下载依赖包

打开CMD,执行以下命令

pip install pymongo    #mongo依赖包
pip install pymysql     #mysql依赖包

三、修改爬虫项目下pipelines.py文件

MongoDB:

惰性插入,有数据才会生成集合,插入数据方式.

import pymongo

from pymongo import MongoClient
 

class Pachong7Pipeline(object):
    def open_spider(self, spider):
        #连接MongoDB数据库
        self.db = MongoClient('mongodb://数据库地址:27017/')
        self.collection = self.db.创建表名
    def process_item(self, item, spider):
        #转化成字典并写入数据
        self.collection.表名.insert_one(dict(item))

Mysql:

注意:Mysql和mongo不同,要在插入数据之前,事先创建好数据库及表

import pymysql

class Pachong7Pipeline(object):
    def open_spider(self, spider):
        self.conn = pymysql.connect(host='数据库地址',user='账号',passwd='密码',db='库名')  #连接数据库
    def process_item(self, item, spider):
        #添加数据到chengjiao表中
        self.conn.query(
        "insert chengjiao(apartment,price,huxing,junjia)"  #需要插入的字段
        "values('{}','{}','{}','{}')".format(
        item['apartment'],item['price'],item['huxing'],item['junjia']  #爬取项目中定义的字段
        ))
        self.conn.commit()#执行添加
    def close_spider(self, spider):
        self.conn.close()  #关闭连接
        yield item
        

最后别忘了在settings中启用pipeline

settings已经自动生成了,直接去掉注释就好了

ITEM_PIPELINES = {
    'pachong7.pipelines.Pachong7Pipeline': 300,   
}

相关文章

  • scrapy框架爬取数据并写入数据库

    写入两个数据库,如果需要一个,按照其中一个执行就可以:①、MongoDB②、Mysql 一、创建数据库 1、使用虚...

  • Scrapy爬取数据初识

    Scrapy爬取数据初识 初窥Scrapy Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 ...

  • Python爬虫之Scrapy框架爬取XXXFM音频文件

    本文介绍使用Scrapy爬虫框架爬取某FM音频文件。 框架介绍 Scrapy是一个为了爬取网站数据,提取结构性数据...

  • Scrapy框架步骤

    简单了解一下Scrapy框架于操作步骤 什么是Scrapy框架呢? scrapy是python下的数据爬取集框架,...

  • python爬虫框架Scrapy

    爬虫框架Scrapy(一) 框架Scrapy是使用python实现的一个爬取网站数据、提取数据的异步网络框架,加快...

  • Scrapy使用

    Scrapy框架 什么是scrapy Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,我们只需...

  • Scrapy的使用方法

    Scrapy框架 什么是scrapy Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,我们只需...

  • 2021-07-21

    Scrapy框架的基本使用 scrapy框架简介 Scrapy是用纯Python实现一个为了爬取网站数据、提取结构...

  • spider整理

    Scrapy框架是一个Python的爬取网站数据,提取结构性数据的应用框架,用途广泛。Scrapy Engine(...

  • 强大的爬虫利器scrapy(介绍与安装)!

    scrapy简介: scrapy是一个爬取较高水平网站的数据抓框架,用于爬取网站跟从它们的页面提取数据,并且用途范...

网友评论

      本文标题:scrapy框架爬取数据并写入数据库

      本文链接:https://www.haomeiwen.com/subject/hwckrctx.html