python小爬虫抓取搞笑图片

作者: 无与童比 | 来源:发表于2014-06-04 13:09 被阅读1706次

    大部分小程序都是基于py2.7的,我于是便想直接出一个py3.4最新版本的教程。大致看一下第一篇了解一下的一些概念性的东西以及bs4第三方库的使用。请参考文末。

    我们的第一个小程序的相关要求:
    目标:抓取一个网站的两千张搞笑图片。(本文先下载一张,多张的处理在这个过程中会出现一些麻烦,所以以后再说)
    需要的工具:chrome浏览器,python3,第三方库BS4。Notepad++。至于安装方法,请移步到这里。

    当然,实现一个非常牛逼的爬虫的理想是远大的,但是我们在跑之前,先要自己好好的修炼一下基本功——先从获取一张图片开始。
    我们发现这个网站比较符合我的要求。

    http://www.76xh.com/tupian/1174.html

    我们打开一个网页,按下f12,研究一番以后,发现如下规律。

    1. 每一个网页有一张图片。其图片质量不算高。
    2. 由于是一个网址对应一个图片地址,
      而且网址链接有这样子的规律。

    http://www.76xh.com/tupian/1174.html
    。。。
    http://www.76xh.com/tupian/3111.html

    也就是我们可以从上面的链接中下载相关的html文件,进而我们从html这个文件中提取出相关图片的链接。接着把相关的图片内部数据下载到内存中,接着写成相关文件放在硬盘中。

    由此看来,我们的获取一张图片的步骤分成这样的几步。
    S1.发起含有图片链接的html。(urllib.request)
    S2.解析出图片地址(通过bs4这个强大的html解析工具)
    S3.发起图片数据的请求(urllib.request)
    S4.把图片保存下来。(os)

    我们从这个链接开始讲起。打开IDLE,调整成shell模式,逐行输入

    from bs4 import BeautifulSoup
    import os,urllib.request
    pageUrl = 'http://www.76xh.com/tupian/1111.html'
    htmlDoc = urllib.request.urlopen(pageUrl).read()
    

    这条命令将链接的请求内容返回到htmlDoc
    我们可以用print(htmlDoc)不过强力不推荐这种方法输出,太慢了.强烈建议另一种BeautifulSoup的prettify方法
    打印出来的东西依稀可以看出这东西的确是html文件的具体内容。

    当然,我们要这一堆垃圾是没有用的,我们要从中解析出所需的图片。用chrome浏览器打开相关网页,然后看到图片右击点击审查元素。我们在这里可以看出我们的具体链接位置。
    这里采用的是相对地址,
    <img src="/d/file/middle/c/483368.jpg" data-bd-imgshare-binded="1">
    身在远程的我们只能通过绝对地址来访问。
    http://www.76xh.com/d/file/middle/c/483368.jpg
    而这个相对链接
    /d/file/middle/c/483368.jpg则是藏在深深地html角落里,怎么获取?我勒个去,我总不能使用查找字符串的方式来查找这东西吧。正则表达式完全不懂啊有木有!
    好吧,我们既然暂时没有办法使用正则表达式。那么我们猜想一下,会不会有这么一个第三方库之类的东西是专门用来操作这个html文件,进而提取其中的数据呢的呢?
    有的,BeautifulSoup4.安装以及介绍方法请移步。

    输入

    Soup = BeautifulSoup(htmlDoc)

    将htmlDoc的所有内容转换成BeautifulSoup对象,
    我们这个时候可以输入
    Print(soup.prettify())
    查看格式化的html文件。
    输入

    soup.find_all("div",class_="pic_text")

    我们便可以将我们需要的图片链接大致范围确定下来了。

    Find_all返回一个list。
    接着我们使用下面两行代码

    divHtml = soup.find_all("div",class_="pic_text")

    imgUrl = 'http://www.76xh.com' + divHtml[0].img.attrs['src']

    输入以上代码便可以提取出我们需要的图片链接。可以print看一下内容
    这时候我们发现了一件事情。就是html文档的标题可以用来做文件名。
    于是请求,保存下来。

    data = urllib.request.urlopen(imgUrl).read()

    fileName = soup.title.contents[0] + '.jpg'

    filePath = os.path.join('C:/img',fileName)

    image = open(filePath,'wb')

    image.write(data)

    image.close()

    所有有效代码如下。
    【自写小脚本-抓取【www.76xh.comV0.1.py】-只能抓取一张图片

        pageUrl = 'http://www.76xh.com/tupian/1111.html'
        htmlDoc = urllib.request.urlopen(pageUrl).read()
        soup = BeautifulSoup(htmlDoc)
        #print (soup.prettify())
        #print ("正在下载第(%d)"%(i))
        divHtml = soup.find_all("div",class_="pic_text")
        imgUrl = 'http://www.76xh.com' + divHtml[0].img.attrs['src']
        data = urllib.request.urlopen(imgUrl).read()
        fileName = soup.title.contents[0] + '.jpg'
        filePath = os.path.join('C:/img',fileName)
        image = open(filePath,'wb')
        image.write(data)
        image.close()
    

    相关文章

      网友评论

      • 042134574126:这里小错误太多了,我这新手在这里有点懵逼
        无与童比:@离开你我他 不会吧,这个文章是一两年前写的,当时记得用的是Python3,所以即便是网站爬取规则变化了,也不会有很多错误的呀.

      本文标题:python小爬虫抓取搞笑图片

      本文链接:https://www.haomeiwen.com/subject/nogdtttx.html