前言
嗨喽,大家好呀~这里是爱看美女的茜茜呐
又到了学Python时刻~
你还在为一个一个下载壁纸而烦恼吗,那有没有更加简单的方法呢?
跟着我,一起来看看我是如何批量下载的吧
环境使用:
-
python3.8 | Anaconda
-
pycharm
相关模块:
-
requests >>> pip install requests
-
parsel
模块安装方法:win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名, 回车
插 件:
xpath helper扩展工具包
安装步骤:先获取xpath helper扩展工具包(注意:不要解压)
》》 打开Google浏览器 --> 更多工具 --> 扩展程序 --> 打开开发者模式 --> 把xpath helper扩展工具包直接拖入 --> 刷新
使用方法:快捷键 ctrl+shift+X
基本思路
1.网页的图片怎么来的?
写代码(爬虫): 网页源代码 浏览器 --> 解析数据
第一页 --> 41页
-
发送请求
-
响应数据
-
解析数据 图片
-
保存数据
代码
import requests # 需要下载 知道 1 不知道 2 pip install requests win+R --> cmd
import re # 正则 不需要下载
import parsel #数据解析 需要下载
# 伪装
headers = {
# 用户代理 浏览器基本的身份信息
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
# 发送请求 response数据请求状态
response = requests.get(url,headers)
# print 打印输出 <Response [200]> 响应对象 200 状态码 成功
print(response)
"""
2.响应数据 网页源代码
"""
# print(response.text)
"""
3.解析数据 图片 re
"""
# .*? 精准查找
re_data = re.findall('<a href="(.*?)" target="_blank"rel="bookmark">(.*?)</a>',response.text)
print(re_data)
# for循环
for link,title in re_data:
# print(link)
response_1 = requests.get(link, headers).text
# print(response_1)
# 解析数据 标签详情页
selector = parsel.Selector(response_1)
# css:定位 img_url 图片链接
img_url = selector.css('.entry-content img::attr(src)').getall()
# print(img_url)
for img in img_url:
print(img)
img_name = img.split('/')[-1]
# content 二进制
content = requests.get(img,headers).content
"""
4.保存数据
"""
with open('img\\'+ img_name, mode='wb') as file:
file.write(content)
尾语 💝
感谢你观看我的文章呐~本次航班到这里就结束啦 🛬
希望本篇文章有对你带来帮助 🎉,有学习到一点知识~
躲起来的星星🍥也在努力发光,你也要努力加油(让我们一起努力叭)。
最后,博主要一下你们的三连呀(点赞、评论、收藏),不要钱的还是可以搞一搞的嘛~
不知道评论啥的,即使扣个6666也是对博主的鼓舞吖 💞 感谢 💐
网友评论