美文网首页Python web开发vPython3
python学习之路(七):牛刀小试,爬取网络图片下载到电脑

python学习之路(七):牛刀小试,爬取网络图片下载到电脑

作者: Python程序猿 | 来源:发表于2018-01-14 20:23 被阅读27次

    自学python今天刚好一星期,今天准备来写第一个正式的脚本代码,以前知道python,是从网络爬虫才开始知道python的。最开始对python的印象就是网络爬虫,所以今天的第一个python就写一个简单的爬虫脚本。

    在网上找了一个壁纸网页(http://www.win4000.com/zt/fengjing_1.html),想把里面的壁纸下载保存到电脑,但是一张一张的下载太费力气了,所以就写一个python爬取里面的图片地址,然后保存在电脑上。

    分享之前我还是要推荐下我自己建的Python开发学习群:628979297,群里都是学Python开发的,如果你正在学习Python ,小编欢迎你加入,今天分享的这个案例已经上传到群文件,大家都是软件开发党,不定期分享干货(只有Python软件开发相关的),包括我自己整理的一份2018最新的Python进阶资料和高级开发教程,欢迎进阶中和进想深入Python的小伙伴。

    写这个脚本用到前面几篇文章里讲到的一些知识点有:

    1、 函数的创建与调用

    2、 内置模块的导入

    3、 For循环

    4、 字符串编码(这个前面几篇里没讲过)

    思路:

    在这个脚本中用到python内置的模块有urllib模块,和re模块。Urllib模块是python内置的一个HTTP请求模块。Re模块是python内置的一个正则表达式模块。我们用urllib请求到网页的源代码,然后用正则表达式匹配出图片的下载地址。然后用for循环一张一张的把图片下载到电脑。

    实现:

    1、新建一个py文件,导入urllib和re模块。

    Urllib里面包括很多子模块。包括以下模块

    urllib.request 请求模块

    urllib.error 异常处理模块

    urllib.parse url解析模块

    urllib.robotparser robots.txt解析模块

    在这个脚本中只用到请求模块,所以就只导入urllib.request就好了。

    2、写一个名为getHtml的函数,然后用urllib.request请求到网页源代码

    给这个函数一个URL参数,然后用urllib.request请求到网页源代码,上面的变量html就是网页的源代码。

    Html.decode(‘utf-8’)是网页的编码,如果编码不对,请求到的网页源码很可能是乱码的。我们可以在网页中用鼠标右键,然后查看网页源代码。

    在源代码的头部会有这个网页的编码,我门根据这个编码写到代码里。

    3、写一个名为getImg的函数,然后用re模块从上面一步中得到的网页源代码筛选出图片的url

    在网页中鼠标右键查看源代码,可以看到这个网页的图片真实地址是放在img标签的data-original属性里面。

    所以我们的正则表达式就写成这样

    reg = r'data-original = "(.+?.jpg)"'

    注意data-original后面的等于号两边都有空格,所以在正则表达式里也要打空格。

    函数返回的imglist就是图片的url列表。

    正则表达式也不是三言两语能说清的,想了解的可以阅读百度百科正则表达式:

    https://baike.baidu.com/item/正则表达式/1700215

    百度百科里面有很详细的介绍。

    5、 写一个名为downImg的函数

    用for循环把上一步得到的imglist循环下载到电脑。调用urllib模块中的urllib.request.urlretrieve函数,把图片保存在电脑里。我这里是保存在D盘的images目录下

    6、 调用前面的写3个函数。

    首先调用getHtml传入网页连接,得到源代码html

    然后调用getImg传入源代码,得到图片列表imglist

    最后调用downImg传入图片列表开始下载

    完整代码如下:

    运行结果:

    电脑存D盘的images目录:

    再加个循环,我们可以把前几页所有的图片都下载下来。把网页翻到第二页。查看第二页的连接。

    可以发现一个规律,网站地址的.thml前面就是下划线+页数。可以根据这个规律来下载指定页数内的所有图片。只需在调用上面的三个函数的时候,加个循环拼接网页的地址,循环调用即可。

    给downImg函数加个页数pageNum的参数。然后保存图片命名以页数开头命名。加个页数开头以防止后面一页把前面一页下载的图片给覆盖了。

    运行代码后,前五页145张图片都已经下载到电脑里了。

    当然上面爬取数据的方式是最简单的,数据量多的话效率不是很理想,现在有很多优秀的第三方模块都可以代替内置的模块,有时间的话我找一个好用的第三方爬虫模块来说一下

    相关文章

      网友评论

        本文标题:python学习之路(七):牛刀小试,爬取网络图片下载到电脑

        本文链接:https://www.haomeiwen.com/subject/cqdloxtx.html