美文网首页
爬虫总结

爬虫总结

作者: 风雨声豪入梦中 | 来源:发表于2019-04-10 14:50 被阅读0次

    1,创建和框架机构
    (1)先创建一个项目

    scrapy startproject projectname(项目名称)
    

    (2)---进入到spiders文件夹下创建爬虫文件

    scrapy genspider  (+) 爬虫文件名称 网站的域(http://后面的)
    

    (3)----使用pycharm打开项目设置虚拟环境

    scrapy项目的架构
    chinaz:项目文件夹
        spiders:爬虫文件(存放所有的爬虫文件)
            zzw.py:(爬虫文件,解析Response响应,提取目标数据和url)
        items.py:编写要爬取的字段
        middlewares.py:中间键 (爬虫中间键和下载中间键)
        pipelines.py:数据管道(载这里做数据读持久化)
        settings.py:设置文件(设置请求头,设置下载延时,设置是否遵守robot协议,以及激活管道文件...)
    scrapy.cfg:配置文件(我们部署项目的时候用到)
    

    2,settings配置

    进入settings.py进行配置(UA请求头,下载延时,是否遵循robot协议,设置文件,数据库的相关配置,管道的激活)
    

    3,爬虫文件和item字段设置
    定义爬虫文件:写入爬取方法需要

    (1)写爬虫文件名字,域,url 
    (2)在item中定义要接收的函数用来接收要爬取的字段,例:图片infoImg=scrapy.Field()
    在类里面写入自己最终要用的集合名称方法(用来区分最终的获取数据分类)
    (3)在自己定义的爬取虫文件中,发起请求获取到的是selector对象放到列表里,---循环列表取出自己要的最终内容,运用xpath取----最后面用.extract_first('')来取值,取出的是文本格式,非列表
    (4)将取到的值 yield + 自己在item中定义的类方法,(这里的yield就是将此处item数据交给管道)
    

    4,管道

    (1)将item传来的数据进行数据持久化和过滤
    (2)若要储存到数据库--------pymysql数据库,init中定义链接,创游标
    -----这里进行数据库的连接和定义,(最开始在settings.py文件中定义的数据库信息在这里就可以用到),例:
    def from_crawler(cls,crawler):
    host = crawler.settings['MYSQL_HOST'] #这是获取settings中设置的host,这样写方便更改和代码优化,cls作用是传值到init中(自动执行int方法)return cls(host)
    (3)定义close_spider方法,这个方法是代码结束自动执行,用来关闭游标和数据库连接
    

    代码执行时候要进入到项目里面的spider目录下输出:scrapy crawl zzw (zzw是自己在自写的爬虫文件中设置的name值,即自己写的爬虫名字)执行代码

    相关文章

      网友评论

          本文标题:爬虫总结

          本文链接:https://www.haomeiwen.com/subject/vdwniqtx.html