美文网首页
python爬虫 爬取妹子图

python爬虫 爬取妹子图

作者: 一只失去梦想的程序猿 | 来源:发表于2019-02-26 23:53 被阅读0次

    不爬妹子图的爬虫不是一只好爬虫。 ----鲁迅

    主页网址唯一图库
    直接点到末页,852页。。

    image.png

    右键点击一个图片链接,选择审查元素


    image.png

    这里的img是就封面,如果只抓取封面的话,到这就可以了,但是我们取的是所有图片,所以这里我们获取的是这个详情页的a链接:http://www.mmonly.cc/mmtp/xgmn/181603.html,这就是第一个图集的链接,然后每页有24个图集。一共852页,我们点击下一页查看下网址变化,http://www.mmonly.cc/mmtp/list_9_2.html,页数变成2,所以我们这里直接循环,然后获取每一页上的图集a链接:

    import requests
    from lxml import html
    for page in range(1,852):
        url='http://www.mmonly.cc/mmtp/list_9_%s.html'%page
        response=requests.get(url,verify=False).text
        selector=html.fromstring(response)
        imgEle=selector.xpath('//div[@class="ABox"]/a')
        for img in imgEle:
            imgUrl=img.xpath('@href')[0]
            print(imgUrl)
    

    这样,我们就获取到了所有的主要链接,每页24个,2w+个。
    这里用的是xpath。
    然后我们点开一个链接,看一下详情页,发现网址没有变化,点下一页,同样的是网址后面加了页数:http://www.mmonly.cc/mmtp/xgmn/181603_2.html,有点区别的地方就是我们不知道每个图集有多少页,所以这里再单独获取一下,同样的右击审查元素。

    image.png
        for img in imgEle:
            imgUrl=img.xpath('@href')[0]
            response=requests.get(imgUrl,verify=False).text
            selector = html.fromstring(response)
            pageEle = selector.xpath('//div[@class="wrapper clearfix imgtitle"]/h1/span/span[2]/text()')[0]
            print(pageEle)
    

    这里我们如愿获取到15。
    之后就是访问每一页,获取高清大图了,以及图片的保存。
    完整代码如下:(这里我图片命名是第几页第几个图集的第几张图片,所以看着有些乱)
    urllib.request.urlretrieve(url,path)简单下载图片,参数为图片链接和下载的本地路径。

    # -*- coding: utf-8 -*-
    # @Time    : 2019/2/26 18:00
    # @Author  : Liangjianghao
    # @Email   : 1084933098@qq.com
    # @Software: PyCharm
    import os
    import urllib
    import requests
    from lxml import html
    import time
    from requests.packages.urllib3.exceptions import InsecureRequestWarning
    # 禁用安全请求警告
    requests.packages.urllib3.disable_warnings(InsecureRequestWarning)
    
    os.mkdir('meizi')#第一次运行新建meizi文件夹,手动建可以注释掉
    
    for page in range(1,852):
        url='http://www.mmonly.cc/mmtp/list_9_%s.html'%page
        print(url)
        response=requests.get(url,verify=False).text
    
        selector=html.fromstring(response)
        imgEle=selector.xpath('//div[@class="ABox"]/a')
        print(len(imgEle))
        for index,img in enumerate(imgEle):
            imgUrl=img.xpath('@href')[0]
            response=requests.get(imgUrl,verify=False).text
            selector = html.fromstring(response)
            pageEle = selector.xpath('//div[@class="wrapper clearfix imgtitle"]/h1/span/span[2]/text()')[0]
            print(pageEle)
            imgE=selector.xpath('//a[@class="down-btn"]/@href')[0]
    
            imgName = '%s_%s_1.jpg' % (page,str(index+1))
            coverPath = '%s/meizi/%s' % (os.getcwd(), imgName)
            urllib.request.urlretrieve(imgE, coverPath)
    
            for page_2 in range(2,int(pageEle)+1):
                url=imgUrl.replace('.html', '_%s.html' % str(page_2))
                response = requests.get(url).text
                selector = html.fromstring(response)
                imgEle = selector.xpath('//a[@class="down-btn"]/@href')[0]
                print(imgEle)
                imgName='%s_%s_%s.jpg'%(page,str(index+1),page_2)
                coverPath = '%s/meizi/%s' % (os.getcwd(), imgName)
                urllib.request.urlretrieve(imgEle, coverPath)
        time.sleep(2)
    

    这个网站没有什么反爬虫措施,为避免服务器压力过大,在每次循环后面加了休眠2秒。
    成果图如下:


    image.png

    相关文章

      网友评论

          本文标题:python爬虫 爬取妹子图

          本文链接:https://www.haomeiwen.com/subject/hxytuqtx.html