美文网首页
使用Scrapy爬取百度图片

使用Scrapy爬取百度图片

作者: 换个名字再说 | 来源:发表于2018-04-12 15:33 被阅读0次

最近在做毕业设计,需要从网上下载图片,就研究了一下怎么使用Scrapy来爬取百度图片。任务很简单,拿到图片的url。现在进入百度图片,默认都是懒加载的(可以调回翻页模式),就是往下翻页面,当没有图片时候,就会发起一个请求,然后返回一个响应里面包含了即将展示图片的url,如此循环。

1. 环境配置和储备知识

我的环境是Mac OS,安装了Anaconda,这个是真的好用没话说,再也不用烦琐python环境了,安装各种需要的库在终端输入命令即可。关于这个可以在网上搜索,很有必要细入了解一下。然后就是安装Scrapy引擎了,命令行直接conda install scrapy后即可,详细内容自己搜索。当然你之前已有python环境并通过其他方法配置好scrapy就不用管这些了。
关于scrapy的相关知识可以参考官方文档,英语基础不好的话,网上也有大量博客可以参考。我就不在累述。

2. 分析百度图片

打开开发者工具(我用的Chrome)后,搜索柯南,仔细观察右边的窗口,其中有一个返回json里面就包含了图片的url

image.png

把返回的json内容复制到在线json解析工具里,看一下结构。可以看到data字段是一个数组,每一项里包含了图片的一些信息,当然,主要包含url即可。可以看到有thumbURLmiddleURL等,根据自己需要选一个,就是图片尺寸不同。

image.png

OK,我们已经知道了怎么拿到图片的url了,我们回过头再来分析之前那个请求连接,向下翻网页,每次请求的时候我们复制一下连接看一下。

image.png
可以看到pn这个参数在有规律的叠加。其实你把这个连接复制到浏览器看一下,返回的json包含即将展示的图片,大概30张。所以我们需要请求更多张图片,就直接爬取多个连接,参数自己设置,按照这个规律来。

3. 编写爬虫

关于下载图片和文件,Scrapy已经帮我们做了很多的工作,以致于你只要写少量的代码即可。
新建Scrapy项目(我就命名CrawlPictures了),然后新建spider(我就命名image了),在Items.py文件中修改自己的Item,新建一个属性存储图片url

class CrawlpicturesItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    IMG_URL = scrapy.Field()

接着编写爬虫,为了方便爬取多个关键字,我在spiders目录下新建了一个keys.json文件用来配置即将爬取的关键字。

image.png

下面是我的爬虫image的代码,在构造函数__init__的时候,我让它读取到keys.json里的关键字信息,然后每个关键字去构建几个请求(一个请求大概30张,前面分析的),你想下载更多的直接更改range(0, 61, 30)。然后把所有的连接存到spiderstart_urls属性里。在parse函数里,对于每一个图片url,新生成一个item,赋值图片的urlitem属性IMG_URL。剩下的事就交给引擎。

import scrapy
import json
from CrawlPictures.items import CrawlpicturesItem

class ImageSpider(scrapy.Spider):
    name = 'image'
    allowed_domains = ['image.baidu.com']

    def __init__(self):
        super(ImageSpider, self).__init__()
        with open("CrawlPictures/spiders/keys.json", 'r') as file_keys:
            keys = json.load(file_keys)
            for key in keys["keys"]:
                for pn in range(0, 61, 30):
                    url = 'http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&queryWord={word}&word={word}&pn={pn}'.format(word=key, pn=pn)
                    self.start_urls.append(url)

    def parse(self, response):
        images = json.loads(response.body)['data']
        for image in images:
            item = CrawlpicturesItem()
            try:
                item['IMG_URL'] = [image['middleURL']]
                yield item
            except Exception as e:
                print(e)
    

最后,我们就要配置pipeline的一些设置了,Scrapy提供了处理图片的'pipeline'。我们只需打开它。并设置处理图片的一些设置。打开settings.py文件。

#打开image pipeline
ITEM_PIPELINES = {
    'scrapy.pipelines.images.ImagesPipeline': 1
}
#IMG_URL是在item.py文件中添加的图片的url属性
IMAGES_URLS_FIELD = 'IMG_URL'
#设置存放图片的路径
IMAGES_STORE = './filepath'

4. 执行和结果

终端执行命令scrapy crawl image。可以看到图片已经爬取下来了。

image.png

5. 注意

我并没有爬取很多图片,然而我一直在测试,结果就被反爬取机制给限制了,爬取不到图片了。这个需要在settings.py文件里设置一下USER_AGENT。网上搜一下,有很多解决办法。
我也是看了官方文档,并从网上搜寻很多博客参考(链接1)(链接2)。感谢所有为别人学习提供方便的人。以后有时间多学习Scrapy再写写文章。

相关文章

  • scrapy爬取妹子图

    废话不多说,爬取妹子图片使用scrapy深度爬取,抓取妹子图全站图片 1.首先确认开发环境 使用scrapy框架,...

  • Scrapy爬取图片续集

    上一篇咱们讲解了Scrapy的工作机制和如何使用Scrapy爬取美女图片,而今天接着讲解Scrapy爬取美女图片,...

  • scrapy爬取整个网页时如何避免链接失效

    scrapy爬取整个网页时如何避免链接失效 最近在使用scrapy爬取网页时遇到很多图片不能正常显示、a标签链接失...

  • 使用Scrapy爬取百度图片

    最近在做毕业设计,需要从网上下载图片,就研究了一下怎么使用Scrapy来爬取百度图片。任务很简单,拿到图片的url...

  • 2018-07-15

    Scrapy框架学习 - 使用内置的ImagesPipeline下载图片 需求分析 需求:爬取斗鱼主播图片,并下载...

  • 六. 项目实战:下载360图片

    爬取网址:http://image.so.com/爬取信息:爬取图片爬取方式:scrapy框架存储方式:Image...

  • 爬百度图片

    requests + re 爬百度图片 一、爬取百度图片一页 二、爬取更多图片 通过上面的方法我们可以成功爬取百度...

  • [scrapy]scrapy爬取京东商品信息——以自营手机为例

    关于scrapy以及使用的代理轮换中间件请参考我的爬取豆瓣文章: 【scrapy】scrapy按分类爬取豆瓣电影基...

  • 【读书笔记】_爬虫

    使用urllib模块爬取图片并下载到本地 python爬虫框架-Scrapy学习自:http://python.j...

  • Scrapy 爬取图片

    1.创建Scrapy项目 2.cd到文件目录 3.创建爬虫,并设定初始爬取网页地址 项目结构: 4.新建main....

网友评论

      本文标题:使用Scrapy爬取百度图片

      本文链接:https://www.haomeiwen.com/subject/tyvzhftx.html