美文网首页
Scrapy爬虫框架初试探(一)

Scrapy爬虫框架初试探(一)

作者: 部落大圣 | 来源:发表于2018-05-20 23:58 被阅读10次

    安装Scrapy,pip install Scrapy。因为之前安装的各种坑都遇到了,这里安装不会再出错了

    创建爬虫项目

    在DOS界面中用CD命令切换到存储位置


    存储位置

    然后运行命令:scrapy startproject csdnSpider ,回车


    建立项目
    可以创建项目csdnSpider,csdnSpider文件夹下有如下文件
    csdnSpider文件夹

    简单介绍一下文件功能

    scrapy.cfg 项目部署文件
    csdnSpider/:
    csdnSpider/:items.py  这里主要是做爬虫提取字段
    csdnSpider/:pipelines.py  对爬虫字段的进一步处理,如去重,清洗,入库
    csdnSpider/:settings.py 项目的配置文件
    csdnSpider/:spiders.py 这里主要做爬虫操作
    

    创建爬取模块

    爬虫模块的代码都放置于spiders文件夹中,用于从单个或多个网站爬取数据的类,其应该包含初始页面的URL,以及跟进网页的链接,分析页内容是提取数据的函数,创建一个Spider类,需要继承scrapy.Spider类,并且定义三个属性:

    name:用于区别Spider,必须是唯一的
    start_urls:启动时爬取入口的URL列表,后续的URL响应后返回的Response对象
    parse():会作为唯一的参数传递给该方法,该方法负责解析返回的数据(reponse data),提取数据(生成item)以及生成需要进一步处理的URL的Response对象
    

    用Pycharm打开我们刚创建的csdnsoider项目,编写爬虫模块代码:

    import scrapy
    
    class csdnspider(scrapy.Spider): # 必须继承scrapy.Spider
        name = "csdn" #爬虫名称,这个名称必须是唯一的
        allowed_domains=["csdn.net"] #允许的域名
        start_urls = [
            "https://www.csdn.net/nav/ai"
        ]
    
        def parse(self, response):
            # 实现网页的解析
         pass
    

    然后调用,在命令行中进入目录csdnSpider中,注意这里应该是于scrapy.cfg同级,运行命令:scrapy crawl csdn 其中csdn是我们刚才在爬虫模块定义的name,爬虫文件建立在spiders文件夹下
    效果图:


    1 2

    这样就创建成功了

    解析Html字段(提取爬虫字段)

    之前的xpath与css已经讲过,这里说一下Selector用法,Selector对象有四个基本方法:

    1、xpath(queery) 返回表达式所对应的所有人节点的selector list列表。
    2、css(query)返回表达式所对应的所有人节点的selector list列表。
    3、extract()序列化节点为UNicode字符串并返回列表。
    4、re(regex)根据传入的正则表达式对数据进行提取,返回一个Unicode字符串列表。
    

    在csdnspider类的parse()方法中,其中一个参数是reponse,将reponse传入的Selector(reponse)中就可以构造出一个Selector对象。

    小技巧:我们在爬虫的时候,更多的是对爬取字段的表达式构造。Scrapy提供了一种简便的方式来查看表达式是否正确有效。

    新打开一个命令窗口:输入E:\work\my_python\csdnSpider>scrapy shell"https://www.csdn.net/nav/ai"
    效果图:

    提取爬取字段

    接着直接输入:response.xpath('//*[@id="feedlist_id"]/li[1]/div/div[1]/h2/a/text()').extract()
    效果图:


    字段

    爬取字段代码

    import scrapy
    
    class csdnspiderpage(scrapy.Spider):
        name = "csdn"
        allowed = ["csdn.net"]
        start_urls = [
          'https://www.csdn.net/nav/ai'
        ]
    
        def parse(self, response):
            datas = response.xpath('//*[@id="feedlist_id"]/li/div')
            for data in datas:
                read_count = data.xpath('./div[1]/h2/a/text()').extract()
                read_count = read_count[0] if len(read_count) > 0 else ''
                print(read_count.strip())
    
    
            pass
    

    在终端输入
    scrapy crawl csdn
    报错”No module named 'win32api'“
    解决办法,Dos
    pip install pypiwin32
    pycharm 安装pypiwin32库
    运行效果


    爬取字段

    总结

    scrapy 框架非常强大,初步接触感觉到了他的便利和效率。今天学习的过程也是在磕磕碰碰,从寒大的写错命令开始,到我不知道在哪里建立spider。如何执行spider遇到了种种问题。
    在打开终端的时候打开的位置上默认开启的项目,cd起来其实挺麻烦的,这里我们就修改一下,每次手动打开项目。这里可以修改一下设置:
    File -> setting -> Appearance&Behavior -> System Setting -> Startup/Shutdown
    取消 Reopen last project on startup 这个选项就好了


    修改开启设置

    这样终端打开为当前项目位置


    终端

    相关文章

      网友评论

          本文标题:Scrapy爬虫框架初试探(一)

          本文链接:https://www.haomeiwen.com/subject/gwxtjftx.html