美文网首页
爬虫--抓取网络图片

爬虫--抓取网络图片

作者: 缓慢移动的蜗牛 | 来源:发表于2017-11-16 22:19 被阅读0次

初次尝试写一个小的爬虫,对网站的图片进行抓取

#!/usr/bin/env python3
# -*-coding:UTF-8-*-


import os
import time
import os.path
import urllib.parse
import urllib.request
from io import StringIO

from lxml import etree


class DownloadMM(object):
    """
    从网站下载图片
    """

    def __init__(self, dir='./ooxx', nPage=10):
        self.url = 'https://jandan.net/ooxx'
        self._page = 0
        self.headers = {'User-Agent': r'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, '
                                      r'like Gecko) Chrome/61.0.3163.100 Safari/537.36'}
        self.nPage = nPage
        self.dir = dir
        if os.path.isdir(self.dir):
            pass
        else:
            os.mkdir(self.dir)

        # 添加一个默认的头信息
        self._htmlParser = etree.HTMLParser(remove_comments=True, compact=True, encoding='UTF-8')

    def __str__(self):
        return '下载图片的地址:' + self.url

    __repr__ = __str__

    # 下载页面
    def _downloadOnePage(self, page):
        # 第几页的格式
        # //jandan.net/ooxx/page-300#comments
        _url = self.url if page <= 0 else self.url + '/page-' + str(page) + '#comments'
        try:
            _request = urllib.request.Request(_url, headers=self.headers)
            _response = urllib.request.urlopen(_request)
            _html = _response.read().decode('UTF-8')

            return _html
        except:
            print('下载页面出错了,地址为:', _url)
            return ''

    # 添加头信息
    def _addHeader(self, key, value):
        self.headers[key] = value

    # 解析网页,获取图片,获取下一页的页码
    def _resolvePage(self, html):
        root = etree.parse(StringIO(html), self._htmlParser)
        # 获取下一页的页码
        nextPageLit = root.xpath('//div[@class="comments"][1]//a[@class="previous-comment-page"]/@href')
        if nextPageLit:
            self._page = int(nextPageLit[0].split('#')[0].split('-')[1])
        else:
            self._page = -1  # -1 控制退出
        # 获取本夜图片的链接地址
        onePageImageList = root.xpath('//ol[@class="commentlist"]/li//div[@class="text"]/p/a[1]/@href')
        print(onePageImageList)
        return onePageImageList

    # 下载图片
    def _downloadImg(self, imgList):
        for imgUrl in imgList:
            imgUrl = 'http:' + imgUrl
            # 获取文件的名称
            fileName = os.path.join(os.path.abspath(self.dir), imgUrl[imgUrl.rfind(
                '/') + 1:])  # os.path.abspath(self.dir) + '/' + imgUrl[imgUrl.rfind('/')+1:]

            # 读出文件,并存到磁盘
            response = urllib.request.urlopen(imgUrl)
            imgBytes = response.read()
            with open(fileName, 'wb') as f:
                f.write(imgBytes)

            # 图片下载完后,睡5秒
            time.sleep(5)

    # 下载图片的逻辑
    def _process(self):
        html = self._downloadOnePage(self._page)  # 下载页面,返回的页面源码
        onePageImgList = self._resolvePage(html=html)  # 解析,获取图片地址和下一页的页码
        self._downloadImg(onePageImgList)  # 进行下载图片的操作,没下载一个图片,睡眠5秒

    # 获取前多少页的图片, 默认10页
    def run(self):
        i = 1
        while self._page != -1:
            if i > self.nPage:
                return
            print('第', i, '页')
            self._process()
            i = i + 1


if __name__ == '__main__':
    dm = DownloadMM(nPage=1)
    dm.run()

相关文章

  • 爬虫--抓取网络图片

    初次尝试写一个小的爬虫,对网站的图片进行抓取

  • 【python】网络爬虫抓取图片

    利用python抓取网络图片的步骤:1.根据给定的网址获取网页源代码2.利用正则表达式把源代码中的图片地址过滤出来...

  • scrapy抓取百度图片-写给自己看爬虫系列1

    前言 需求:用scrapy抓取图片思路:scrapy抓取图片的逻辑是,用爬虫抓取图片url输出到pipeline中...

  • 利用Nodejs抓取网上图片并保存至本地

    1)初步应用 利用http以及fs模块抓取网络数据保存至本地 2)利用爬虫抓取简书首页的文章链接及内容以及图片保存...

  • python网络爬虫抓取网站图片

    本文介绍两种爬取方式: 1.正则表达式 2.bs4解析Html 以下为正则表达式爬虫,面向对象封装后的代码如下: ...

  • 贴吧帖子内图片抓取

    Python之爬虫练习 利用Python对百度贴吧进行网络爬虫,实现抓取每个帖子内的所有图片并将之保存到本地。 本...

  • Robots协议

    Robots Exclusion Standard 网络爬虫排除标准 作用:网站告知网络爬虫哪些页面可以抓取,哪些...

  • Robots协议

    1 Robots Exclusion Standard 网络爬虫排除标准 作用: 网站告知网络爬虫哪些页面可以抓取...

  • 爬虫原理与数据抓取(一)

    通用爬虫与网络爬虫 1.通用爬虫 通用网络爬虫 是 捜索引擎抓取系统(Baidu、Google、Yahoo等)的重...

  • Python 爬虫协议及建议

    爬虫协议 什么是爬虫协议:爬虫协议,也被叫做robots协议,是为了告诉网络蜘蛛哪些页面可以抓取,哪些页面不能抓取...

网友评论

      本文标题:爬虫--抓取网络图片

      本文链接:https://www.haomeiwen.com/subject/thkrvxtx.html