美文网首页
Python爬虫练习 爬取图片

Python爬虫练习 爬取图片

作者: 王芳雨 | 来源:发表于2020-06-21 22:20 被阅读0次

    virtualenv: 是针对python的包的多版本管理,通过将python包安装到一个模块来作为python的包虚拟环境,通过切换目录来实现不同包环境间的切换。其实不是非常爱捣腾的话,此工具就已经可以应付同python版本多环境问题了,安装使用也非常简单

    1、请求网页

    import requests
    import re
    import os
    import time
    
    response = requests.get("https://www.vmgirls.com/13970.html")
    print(response.request.headers)
    print(response.text)
    

    requests[1]没有请求头会被反爬,默认的会被反爬,这里是默认的爬虫的user-agent

    {'User-Agent': 'python-requests/2.24.0', 'Accept-Encoding': 'gzip, deflate', 'Accept': '*/*', 'Connection': 'keep-alive'}
    <html>
    <head><title>403 Forbidden</title></head>
    <body>
    <center><h1>403 Forbidden</h1></center>
    <hr><center>XCat</center>
    </body>
    </html>
    

    获取请求头 user-agent用户代理,告诉服务器请求者的身份

    headers = {
    'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                 'Chrome/83.0.4103.106 Safari/537.36'
    }
    
    response = requests.get("https://www.vmgirls.com/13970.html", headers = headers)
    

    方式:在网页检查源代码中,找到network,刷新网页,一般在第一个是网页的地址,查看该地址,在最后一行出现user-agent

    补充:

    import requests
     
    response  = requests.get("https://www.baidu.com")
    print(type(response))
    print(response.status_code)
    print(type(response.text))
     
    response.enconding = "utf-8'
    print(response.text)
     
    print(response.cookies)
     
    print(response.content)
    print(response.content.decode("utf-8"))
    

    response.text返回的是Unicode格式,通常需要转换为utf-8格式,否则就是乱码。response.content是二进制模式,可以下载视频之类的,如果想看的话需要decode成utf-8格式。
      不管是通过response.content.decode("utf-8)的方式还是通过response.encoding="utf-8"的方式都可以避免乱码的问题发生

    2、解析网页

    这里使用正则表达式[2]来进行处理,在繁杂的网页代码中提取自己想要的部分、还有bs4

    xpath[3]功能更强大

    .*?匹配除了换行符之间的所有内容

    # 创建文件名,先找到名字,如果有名字就写进去,如果没有创建一个
    dir_name = re.findall('<h1 class="post-title h3">(.*?)</h1>', html)[-1]
    if not os.path.exists(dir_name):
        os.mkdir(dir_name)
    urls = re.findall('<a href="(.*?)" alt=".*?" title=".*?">', html)
    print(urls)
    

    3、保存图片

    for url in urls:
        time.sleep(1) #为了减轻对面网站服务器的压力 
        # 图片的名字
        files_name = url.split('/')[-1]
        response = requests.get(url, headers = headers)
        #写进相对目录夹中
        with open(dir_name + '/' + files_name, 'wb',) as f:
            f.write(response.content)
    

    这里涉及os[4]的知识

    4、完整代码(比较弱小能力有限)

    import requests
    import re
    import os
    import time
    headers = {
     'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                 'Chrome/83.0.4103.106 Safari/537.36'
    }
    
    response = requests.get("https://www.vmgirls.com/13888.html", headers = headers)
    html = response.text
    
    '''解析网页 遍历列表,保存'''
    # 创建文件名,先找到名字,如果有名字就写进去,如果没有创建一个
    dir_name = re.findall('<h1 class="post-title h3">(.*?)</h1>', html)[-1]
    if not os.path.exists(dir_name):
        os.mkdir(dir_name)
    urls = re.findall('<a href="(.*?)" alt=".*?" title=".*?">', html)
    print(urls)
    
    '''保存图片'''
    for url in urls:
        time.sleep(1)
        # 图片的名字
        files_name = url.split('/')[-1]
        response = requests.get(url, headers = headers)
        with open(dir_name + '/' + files_name, 'wb',) as f:
            f.write(response.content)
    

    1. Requests: 让 HTTP 服务人类

    2. 正则表达式

    3. xpath相关教程 w3schoolxpath教程

    4. Python OS 文件/目录方法

    相关文章

      网友评论

          本文标题:Python爬虫练习 爬取图片

          本文链接:https://www.haomeiwen.com/subject/ihyzxktx.html