美文网首页
使用Scrapy爬取百度图片

使用Scrapy爬取百度图片

作者: 换个名字再说 | 来源:发表于2018-04-12 15:33 被阅读0次

    最近在做毕业设计,需要从网上下载图片,就研究了一下怎么使用Scrapy来爬取百度图片。任务很简单,拿到图片的url。现在进入百度图片,默认都是懒加载的(可以调回翻页模式),就是往下翻页面,当没有图片时候,就会发起一个请求,然后返回一个响应里面包含了即将展示图片的url,如此循环。

    1. 环境配置和储备知识

    我的环境是Mac OS,安装了Anaconda,这个是真的好用没话说,再也不用烦琐python环境了,安装各种需要的库在终端输入命令即可。关于这个可以在网上搜索,很有必要细入了解一下。然后就是安装Scrapy引擎了,命令行直接conda install scrapy后即可,详细内容自己搜索。当然你之前已有python环境并通过其他方法配置好scrapy就不用管这些了。
    关于scrapy的相关知识可以参考官方文档,英语基础不好的话,网上也有大量博客可以参考。我就不在累述。

    2. 分析百度图片

    打开开发者工具(我用的Chrome)后,搜索柯南,仔细观察右边的窗口,其中有一个返回json里面就包含了图片的url

    image.png

    把返回的json内容复制到在线json解析工具里,看一下结构。可以看到data字段是一个数组,每一项里包含了图片的一些信息,当然,主要包含url即可。可以看到有thumbURLmiddleURL等,根据自己需要选一个,就是图片尺寸不同。

    image.png

    OK,我们已经知道了怎么拿到图片的url了,我们回过头再来分析之前那个请求连接,向下翻网页,每次请求的时候我们复制一下连接看一下。

    image.png
    可以看到pn这个参数在有规律的叠加。其实你把这个连接复制到浏览器看一下,返回的json包含即将展示的图片,大概30张。所以我们需要请求更多张图片,就直接爬取多个连接,参数自己设置,按照这个规律来。

    3. 编写爬虫

    关于下载图片和文件,Scrapy已经帮我们做了很多的工作,以致于你只要写少量的代码即可。
    新建Scrapy项目(我就命名CrawlPictures了),然后新建spider(我就命名image了),在Items.py文件中修改自己的Item,新建一个属性存储图片url

    class CrawlpicturesItem(scrapy.Item):
        # define the fields for your item here like:
        # name = scrapy.Field()
        IMG_URL = scrapy.Field()
    

    接着编写爬虫,为了方便爬取多个关键字,我在spiders目录下新建了一个keys.json文件用来配置即将爬取的关键字。

    image.png

    下面是我的爬虫image的代码,在构造函数__init__的时候,我让它读取到keys.json里的关键字信息,然后每个关键字去构建几个请求(一个请求大概30张,前面分析的),你想下载更多的直接更改range(0, 61, 30)。然后把所有的连接存到spiderstart_urls属性里。在parse函数里,对于每一个图片url,新生成一个item,赋值图片的urlitem属性IMG_URL。剩下的事就交给引擎。

    import scrapy
    import json
    from CrawlPictures.items import CrawlpicturesItem
    
    class ImageSpider(scrapy.Spider):
        name = 'image'
        allowed_domains = ['image.baidu.com']
    
        def __init__(self):
            super(ImageSpider, self).__init__()
            with open("CrawlPictures/spiders/keys.json", 'r') as file_keys:
                keys = json.load(file_keys)
                for key in keys["keys"]:
                    for pn in range(0, 61, 30):
                        url = 'http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&queryWord={word}&word={word}&pn={pn}'.format(word=key, pn=pn)
                        self.start_urls.append(url)
    
        def parse(self, response):
            images = json.loads(response.body)['data']
            for image in images:
                item = CrawlpicturesItem()
                try:
                    item['IMG_URL'] = [image['middleURL']]
                    yield item
                except Exception as e:
                    print(e)
        
    

    最后,我们就要配置pipeline的一些设置了,Scrapy提供了处理图片的'pipeline'。我们只需打开它。并设置处理图片的一些设置。打开settings.py文件。

    #打开image pipeline
    ITEM_PIPELINES = {
        'scrapy.pipelines.images.ImagesPipeline': 1
    }
    #IMG_URL是在item.py文件中添加的图片的url属性
    IMAGES_URLS_FIELD = 'IMG_URL'
    #设置存放图片的路径
    IMAGES_STORE = './filepath'
    

    4. 执行和结果

    终端执行命令scrapy crawl image。可以看到图片已经爬取下来了。

    image.png

    5. 注意

    我并没有爬取很多图片,然而我一直在测试,结果就被反爬取机制给限制了,爬取不到图片了。这个需要在settings.py文件里设置一下USER_AGENT。网上搜一下,有很多解决办法。
    我也是看了官方文档,并从网上搜寻很多博客参考(链接1)(链接2)。感谢所有为别人学习提供方便的人。以后有时间多学习Scrapy再写写文章。

    相关文章

      网友评论

          本文标题:使用Scrapy爬取百度图片

          本文链接:https://www.haomeiwen.com/subject/tyvzhftx.html