美文网首页python热爱者Python新世界
带你一步一步的分析爬虫原理,python爬虫入门级别实战!

带你一步一步的分析爬虫原理,python爬虫入门级别实战!

作者: 48e0a32026ae | 来源:发表于2018-12-18 11:33 被阅读4次

1. 简介

国庆假日结束了,新的工作又开始了,今天我们继续爬取一个网站,蜂鸟一个摄影大牛聚集的地方,本教程请用来学习,不要用于商业目的,不出意外,蜂鸟是有版权保护的网站。

2. 网站分析 学习Python中有不明白推荐加入交流群

                号:960410445

                群里有志同道合的小伙伴,互帮互助,

                群里有不错的视频学习教程和PDF!

第一步,分析要爬取的网站有没有方法爬取,打开页面,找分页

上面的页面发现一个关键的参数page=1这个就是页码了,但是另一个比较头疼的问题是,他没有最后的页码,这样我们没有办法确定循环次数,所以后面的代码编写中,只能使用while了

这个地址返回的是JSON格式的数据,这个对爬虫来说,非常友好!省的我们用正则表达式分析了。

分析这个页面的头文件,查阅是否有反爬措施

发现除了HOST和User-Agent以外,没有特殊的点,大网站就是任性,没啥反爬,可能压根不在乎这个事情。

第二步,分析图片详情页面,在我们上面获取到的JSON中,找到关键地址

关键地址打开之后,这个地方有一个比较骚的操作了,上面图片中标注的URL选的不好,恰好是一个文章了,我们要的是组图,重新提供一个新链接

http://image.fengniao.com/slide/535/5352130_1.html#p=1

打开页面,你可能直接去找规律了,找到下面的一堆链接,但是这个操作就有点复杂了,我们查阅上述页面的源码

http://image.fengniao.com/slide/535/5352130_1.html#p=1

http://image.fengniao.com/slide/535/5352130_1.html#p=2

http://image.fengniao.com/slide/535/5352130_1.html#p=3

....

网页源码中发现了,这么一块区域

大胆的猜测一下,这个应该是图片的JSON,只是他打印在了HTML中,我们只需要用正则表达式进行一下匹配就好了,匹配到之后,然后进行下载。

第三步,开始撸代码。

3. 写代码

from http_help import R

import threading

import time

import json

import re

img_list = []

imgs_lock = threading.Lock() #图片操作锁

# 生产者类

class Product(threading.Thread):

def __init__(self):

threading.Thread.__init__(self)

self.__headers = {"Referer":"http://image.fengniao.com/",

"Host": "image.fengniao.com",

"X-Requested-With":"XMLHttpRequest"

}

#链接模板

self.__start = "http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page={}¬_in_id={}"

self.__res = R(headers=self.__headers)

def run(self):

# 因为不知道循环次数,所有采用while循环

index = 2 #起始页码设置为1

not_in = "5352384,5352410"

while True:

url = self.__start.format(index,not_in)

print("开始操作:{}".format(url))

index += 1

content = self.__res.get_content(url,charset="gbk")

if content is None:

print("数据可能已经没有了====")

continue

time.sleep(3) # 睡眠3秒

json_content = json.loads(content)

if json_content["status"] == 1:

for item in json_content["data"]:

title = item["title"]

child_url = item["url"] # 获取到链接之后

img_content = self.__res.get_content(child_url,charset="gbk")

pattern = re.compile('"pic_url_1920_b":"(.*?)"')

imgs_json = pattern.findall(img_content)

if len(imgs_json) > 0:

if imgs_lock.acquire():

img_list.append({"title":title,"urls":imgs_json}) # 这个地方,我用的是字典+列表的方式,主要是想后面生成文件夹用,你可以进行改造

imgs_lock.release()

上面的链接已经生成,下面就是下载图片了,也非常简单

# 消费者

class Consumer(threading.Thread):

def __init__(self):

threading.Thread.__init__(self)

self.__res = R()

def run(self):

while True:

if len(img_list) <= 0:

continue # 进入下一次循环

if imgs_lock.acquire():

data = img_list[0]

del img_list[0] # 删除第一项

imgs_lock.release()

urls =[url.replace("\","") for url in data["urls"]]

# 创建文件目录

for item_url in urls:

try:

file = self.__res.get_file(item_url)

# 记得在项目根目录先把fengniaos文件夹创建完毕

with open("./fengniaos/{}".format(str(time.time())+".jpg"), "wb+") as f:

f.write(file)

except Exception as e:

print(e)

代码走起,结果

相关文章

网友评论

    本文标题:带你一步一步的分析爬虫原理,python爬虫入门级别实战!

    本文链接:https://www.haomeiwen.com/subject/eybkkqtx.html