美文网首页
Python初试-requests/re实现图片多页爬取,顺序编

Python初试-requests/re实现图片多页爬取,顺序编

作者: 赵照zz | 来源:发表于2017-10-25 23:48 被阅读0次

    0 前言

    最近看完Python基本知识与正则表达式,尝试写下爬虫,发现不知怎么入手,就上网查了下,看到了一片文章,感觉还不错,根据上面的代码尝试写了下,虽然是别人的代码(代码并不是完全可以运行,有点问题),自己敲一遍也算练习了下,中间也尝试改动了一些。

    参考文章:(http://www.jianshu.com/p/384bfb49cdd6

    1 功能与实现

    1.1 功能:

    爬取一个网站( url = 'http://jandan.net/ooxx/',爬完发现是个***网站)的图片,实现多页爬取,把爬取的图片按照1,2,3...编号

    1.2 代码实现

    首先贴出主程序:

    def main():
        if not os.path.exists('folder'):#判断是否存在‘folder’文件夹
            os.mkdir('folder') #不存在则建立
        os.chdir('folder') #改变工作目录
        pages = 3 #选择爬取页数,也可以用imput,在程序运行时输入
        url = 'http://jandan.net/ooxx/'
        page_num = int(get_page(url)) #通过get_page(url)函数得到初始页码,便于爬取其他页码
        num = 0   # num是图片编码,在save_imgs函数中用到
        for i in range(pages): #逐一爬取每个网页
            page_num -= i #改变页码,选择上一网页
            page_url = url + 'page-' + str(page_num) + '#comments' #获取该网页的URL
            img_addrs = find_images(page_url) #获取该网页所有图片地址
            save_imgs(num, img_addrs) #保存图片
            num += len(img_addrs) #num作为图片编码,每次加上本次网页的图片数
    if __name__ == '__main__':
        main()
    

    接下来,逐一写出子函数
    首先写出常用获取页面内容的函数(获取 text),可作为常用函数

    #获取URL返回网页的text,图片的信息存在content中
    def getHTMLText(url):
        try:
            r = requests.get(url) #request get命令
            r.raise_for_status() 
            r.encoding = r.apparent_encoding 
            return r.text
        except:
            return ""
    

    获取首页页码值

    def get_page(url):
        html = getHTMLText(url) #获取网页内容
        page = re.search(r'page-[0-9]{3}#', html).group() #找出含有本页网址的那一段字符串
        page_number = re.search(r'[0-9]{3}', page).group() #从这一段字符串提取出页码
        return page_number #返回页码
    

    获取网页的所有图片地址

    def find_images(url):
        html = getHTMLText(url) #获取网页内容
        img_src1 = [] 
        img_src0 = re.findall(r'<img\ssrc=\".*?(?:\.jpg|\.png|\.gif)', html) #获取该页面所有包含图片源地址的字符串
        for img_src in img_src0:
            img_src1.append(img_src[10:])  #获取该页面所有图片地址
        return img_src1
    

    保存图片

    def save_imgs(num, img_addrs):
        for img_addr in img_addrs: #图片网址循环
            num += 1 #每次加1 实现编码
            filename = str(num) + '.' + img_addr.split('.')[-1]  #图片名称,img_addr.split('.')[-1]是用于获取jpg,png,gif等格式,例如,名称为1.jpg
            img = requests.get('http:{}'.format(img_addr)).content #获取图片网址的内容,以二进制内容保存图片内容
            with open(filename, 'wb') as f:  
                f.write(img)
    

    3 问题:

    编写过程中,存在一个问题
    正则表达式,r'<img\ssrc=\".*?(?:\.jpg|\.png|\.gif)'可以实现获取源地址,若去掉?:改为r'<img\ssrc=\".*?(\.jpg|\.png|\.gif)',则获取的字符串是.jpg,不包含源地址

    4 总结

    1. 开始时,学习别人的代码,自己尝试修改,可以尽快熟悉
    2. 入门后,尽快多写代码,爬不同的网站
    3. 有时候,一个小错误,查找了半天,编程要仔细
    4. 待续。。。。。。。。。。。。。。。。。。。。

    相关文章

      网友评论

          本文标题:Python初试-requests/re实现图片多页爬取,顺序编

          本文链接:https://www.haomeiwen.com/subject/gqacpxtx.html