美文网首页爬虫Scrapypython爬虫Pythoner集中营
scrapy笔记(2) - 小试牛刀 (抓取豆瓣推理小说信息)

scrapy笔记(2) - 小试牛刀 (抓取豆瓣推理小说信息)

作者: destino74 | 来源:发表于2015-04-17 23:12 被阅读5110次

    1. 事前准备:

    • 阅读[scrapy官方文档] [scrapy doc]至少一次
    • 了解scrapy的基本命令及弄懂scrapy文档中例子的项目结构等基本信息
      下文将假设大家已经有了以上准备, 对一些细节不会详细阐述, 如有不懂可以先翻翻文档或留言询问
    • 下载本例子源码(文章末尾)

    2. 豆瓣页面分析

    我们准备'下手'的是豆瓣推理小说的数据,截图如下


    小说数据

    目前(2015-4-16)豆瓣共有629页的推理小说, 每页有15本书,一共9000多本书
    我们来用chrome审查元素功能看看


    审查元素

    scrapy爬取的是html网页源代码,审查元素看的是经过js处理后的页面,有些html页是由js输出的,有些会与html网页源代码不一样,这里豆瓣的书籍信息不是经过js输出的,所以可以放心这样干

    稍加分析,并可以知道这些书都放在一个class='mod book-list'的div内,在这个div内分别用dl, dt这样的标签装载书籍的信息, 在写爬虫的时候我们可以直接用xpath,或css取出这些信息的标签.

    3.开始写爬虫

    首先执行两个命令
    scrapy startproject db_spider
    在创建的目录下,即xxx/db_pisder/下执行
    scrapy genspider -t crawl douban douban.com
    现在的项目目录结构如下图所示

    项目目录
    关于scrapy的这几个文件是什么意思我就不详细介绍了,相信看过文档的人应该也有所了解。
    接下来我们在items.py里定义我们的数据对象
    items项
    要抓取的东西如图所示,按照从上到下,从左到右分别在items.py里定义为如下字段
    items.png

    接下来, 我们要在spiders/douban.py写关于爬虫的东西

    DoubanSpider

    这些配置的意思是,从http://www.douban.com/tag/推理/book?start=0 这个页面开始, 遇到域名为douban.com且符合'start=\d+$'的链接则调用parse_item解析页面并跟进这个链接查找是否有符合规则的链接。
    接下来我们要写parse_item函数,在分析页面的时候,我们已经确定要爬取哪些信息。现在在parse_item里写的就是从页面里获取这些信息, 并存在items中。
    我们可以先在db_spider目录下执行scrapy shell http://www.douban.com/tag/推理/book?start=0
    会得到一个用于调试的命令行, 如下所示:

    scrapy shell url
    我们可以用view(response)在浏览器中打开这个链接,这个链接看到的页面就是爬虫看到的页面了,之前说过了,用js输出的页面跟爬虫看到的页面有时会不一样,在爬取时可能看不到我们要的信息,在爬复杂的网站时要注意。
    然后我们可以在这个命令行内,对response进行xpath,css操作得到标签,比如说我们要得到小说数据图中的白夜叉这个书名,我们可以根据chrome的审查元素右键的copy xpath或copy css path功能得到标签的路径
    copy xpath.png

    我们得到的路径可能是这样的:

    XPath

    构造了一个之后,其它就简单了, 这里直接给出所有项的代码, 如果觉得xpath和css有困难的话,建议再看一下scrapy文档里的例子及xpath和css的文档。

    def parse_item(self, response):
        items = []
        book_list = response.css('div.mod.book-list dl')
        for book in book_list:
            item = DbSpiderItem()
            try:
                item['book_name'] = book.xpath('dd/a/text()').extract()[0]
                item['book_star'] = book.xpath('dd/div[1]/span[1]/@class').extract()[0][7:]
                item['book_rating'] = book.xpath('dd/div[1]/span[2]/text()').extract()[0]
                item['book_eval'] = book.xpath('dd/div[1]/span[3]/text()').extract()[0]
                desc = book.xpath('dd/div[2]/text()').extract()[0].strip().split('/')
                item['book_price'] = desc.pop()
                item['book_publish_date'] = desc.pop()
                item['book_publish'] = desc.pop()
                item['book_author'] = '/'.join(desc)
            except:
                pass
            items.append(item)
        return items
    

    这里注意一下代码里的try,except块, 这是为了豆瓣的书数据的特殊处理,因为豆瓣书的数据格式并不是全部都一致,有那么几本没有出版社或者没有出版日期,甚至没有评分。如下图,我们忽略这些个例就行了。

    个例

    到此,我们的爬虫就写完了,我们还需要设置一下settings里的DOWNLOAD_DELAY=2,这很重要,因为如果无间隔的去爬,很快会被豆瓣ban掉的。
    一切准备完毕,我们可以试一下scrapy crawl douban -o book_data.json来爬取数据并转化成json格式。
    爬虫孜孜不倦地开始爬数据了, 但我们要爬取的只有629页, 630页之后的书都没有了,爬虫却停不下来。怎么办?除了用ctrl+c(两次)强制停止外,我们可以在Rule里面把正则式改成这样

    rule

    最多匹配到999页了,如果还是觉得不爽,可以查查scrapy的CloseSpider异常,抛出该异常可以暂停/停止爬虫。

    最终我们爬取的部分数据如下,

    book_data.json

    把json改成{'Record': [{book_data1,book_data2}]}的形式,可以用导入工具(Navicat Premium)导入数据库中,当然,你也可以自己写个插入语句放入数据库。


    4.总结

    本篇文章到此结束, 其实也就相当于scrapy官方文档的例子的扩展,只是比那个例子更结合实际一点,没有讲什么特别的东西,我们可以发现,用scrapy定制这个简易爬虫,其实不过100行的代码,还是十分的简单易用的。


    例子源码请戳:git源码
    [scrapy doc]: http://scrapy-chs.readthedocs.org/zh_CN/latest/index.html "scrapy官方中文文档"

    相关文章

      网友评论

      • 别瞄我:您好,请问有没有遇到过这个问题,就是scrapy请求带#号的url
        会忽略#号后面的所有参数,比如想请求 http://www.qichacha.com/search?key=%E5%8A%A0%E6%B2%B9%E7%AB%99#p:1&statusCode:20&province:HEN&city:1&1
        但实际上scrapy 请求的是 http://www.qichacha.com/search?key=%E5%8A%A0%E6%B2%B9%E7%AB%99
        这个情况如何处理的呢?多谢
        950a58e559d5:请问知不知道如何爬取豆瓣网上的图片?
        destino74:似乎无法处理.看这个
        http://stackoverflow.com/questions/43996094/scrapy-navigate-url-with-anchor
        # 号是锚点, 浏览器根据这个定位页面指定位置的, scrapy请求时会忽略锚点后的参数..
        解决办法有2:
        1. 去看源码, 试试hack
        2. 用scrapy+ selenium 模拟页面跳转
      • 782e212d35dd:写的非常棒,我竟然看明白了,实践操作试试看。
      • 小熊rene:是不是要伪装浏览器才能爬啊
        65b6c2b79233:@小熊rene http://blog.csdn.net/cn_wk/article/details/51854516 这是我转的 可以设置代理
      • xXPzXj:想问个问题。
        html代码是:
        <a>怒海争霸</a>
        <a>第1部</a>
        <a>第2部</a>
        <a>第3部</a>
        <a>第4部</a>

        我想要的是 内容是 “第”开头的那几个a标签,要怎么写xpath啊,我查了半天写了一个:
        k = '第'
        a[contains(.//text(),k)]
        但是不对啊
        65b6c2b79233:@某小HAO 可以都抓下来 然后用filter函数处理

        items = ['怒海争霸','第1部','第2部','第3部','第4部']
        items = filter(lambda item: '第' in item,items)
      • 57fff67d13f7:就是不能用了
      • 6b5de2697adc:提示了一个ignore response 403,是什么情况?
        65b6c2b79233:@IT小飞侠 http://blog.csdn.net/cn_wk/article/details/51854516
        57fff67d13f7:@猫死流忙 就是不能用,被禁止了,我的也是这个毛病!

      本文标题:scrapy笔记(2) - 小试牛刀 (抓取豆瓣推理小说信息)

      本文链接:https://www.haomeiwen.com/subject/pexefttx.html