美文网首页
百度指数爬虫|爬虫篇(一)

百度指数爬虫|爬虫篇(一)

作者: DZQANN | 来源:发表于2020-05-16 18:09 被阅读0次

资源收集

在写爬虫之前,一定要先在知乎、简书、CSDN、github这种网站上查查有没有人做过类似的事情。目的并不一定是抄他们的代码,而是看他们是怎么分析的,他们都发现了哪些网站的反爬措施,又是怎么解决的。通过看他们的文章和代码,可以让自己少走很多弯路。我这次写爬虫就是参考了一篇文章和一个代码。
本篇内容是分析百度指数的获取数据的接口,大家感兴趣的话可以实操一下

接口分析

界面构成

首先百度指数的首页链接是http://index.baidu.com/,打开之后就可以看到如下界面:

​ 然后我们在关键词里搜索信息,就可以查看百度指数结果了:


  • 点击1位置可以调整查看的时间范围
  • 点击2位置可以选择PC、移动、PC+移动端
  • 点击3位置可以切换全国的不同省份
  • 拖动4的时间轴也可以达到点击1位置同样的效果

接口分析

然后我们就来分析一下接口了,所谓分析接口就是,找出来这个界面的那些数据,是从哪里弄过来的。想要想搞清楚这个问题,我们要3步走:

  • 在浏览器上按F12
  • 点击"Network"
  • 刷新页面

现在我们就会看到这么一大堆浏览器向服务器发送的请求。我们需要的,获得搜索次数的请求肯定也藏在其中。那么问题来了,哪个是呢?????

不慌,问题不大,首先呢,我们点击这个"XHR",进行筛选(不要问我为什么按这个,按!就对了)

我们来看哈,现在请求已经被我们一下子筛选的这么这么少了,那我们就只能,一个一个看了

对于每一个请求呢,我们先要点击请求,然后点击右边的"Preview",就可以看到请求的内容了。经过查看。这个请求一看就是我们需要的东西:

你看它长得多好看,有all,有pc,有wise。每个里面有startDate(开始时间的意思,英语不行我就没辙了),endDate和data。除了data长得很奇怪好像其他的都还行。那其实这就很难受了,这个data一看就是经过加密了。那么这个问题严重么?啊,其实还蛮严重的。不过不要紧,我们知道既然服务器把加密后的数据发给我了,那么解密的方法一定在代码里,我们就来猜猜看,哪段代码是用来解密的就可以了。

具体咋办呢?问题来了,解密的英语是什么啊?decrypt!好的,我们猜猜看,百度的程序员会不会把解密的程序命名为了decrypt呢?我们来搜索一下,点击这个小搜索框,输入decrypt再回车就好了。

激动人心的时刻到了,果然搜到了两条记录,点开一看,完美!我们貌似找到了一个解密的代码:

我们看到解密需要t和e,t是我们要解密的内容,就是前面的data,那么e呢?e明显就是解密用的秘钥了,那么e怎么来得???经过分析,它是其它的请求发来的:

这个里面的data,就是我们解密用的秘钥了!但是这个请求有一个uniqid参数,它是哪来的???咦,貌似我们最上面返回数据的请求,有一个uniqid哎!没跑了,就是它!

接口总结

好的,现在我们来捋一下流程:

  • 首先index?area=0.....的那个请求会发回来搜索数量,不过是加密后的结果,我们需要解密。并且这个接口会返回一个uniqid字段,这个字段在后面会用到
  • 解密的方法在decrypt函数里,其中需要需要被解密的密文,就是上面我们获得的data,以及解密的秘钥
  • 秘钥是通过ptbk?uniqid...这个请求来发送的,不过这个请求需要一个uniqid参数,这个参数在我们前面的index请求里就可以拿到

这样一来我们爬虫最核心的内容就有了:

  • 首先请求index,拿到密文和uniqid:

    def get_encrypt_datas(self, start_date, end_date, keywords):
            params = {
                'word': ','.join(keywords),
                'startDate': start_date.strftime('%Y-%m-%d'),
                'endDate': end_date.strftime('%Y-%m-%d'),
                'area': self.area
            }
            url = 'http://index.baidu.com/api/SearchApi/index?' + urlencode(params)
            html = self.get(url)
            datas = json.loads(html)
            uniqid = datas['data']['uniqid']
            encrypt_datas = []
            for single_data in datas['data']['userIndexes']:
                encrypt_datas.append(single_data)
            return (encrypt_datas, uniqid)
    
  • 然后根据uniqid去拿到解密的秘钥:

    def get_key(self, uniqid):
            url = 'http://index.baidu.com/Interface/api/ptbk?uniqid=%s' % uniqid
            html = self.get(url)
            datas = json.loads(html)
            key = datas['data']
            return key
    
  • 最后照着抄解密函数哈哈哈哈

    def decrypt_func(self, key, data):
            a = key
            i = data
            n = {}
            s = []
            for o in range(len(a) // 2):
                n[a[o]] = a[len(a) // 2 + o]
            for r in range(len(data)):
                s.append(n[i[r]])
            return ''.join(s).split(',')
    
  • 我们来看一下解密的结果:

已经解密成数字了,这样就,大功告成!

写在最后

其实感觉,这个爬虫真的还挺难的。百度的反爬和其它不太一样。百度对于访问的频率以及请求的Cookie的更新并没有太大的反爬加入。百度的反爬措施主要在于加密。当然,它同样恶心哈哈哈。

下一篇我们将说说,其它方面,百度还给我们准备了什么坑,等着我们跳!

相关文章

  • 爬虫——百度指数

    蛮早之前公司有个产品问我能不能爬百度指数,我随便瞄了眼,直接回了可以,然后...光速打脸...今儿个有空,研究研究...

  • 2019-07-22

    爬虫基础概念 "大数据时代"从何而来? - 企业生产的用户数据:阿里指数,百度指数,微博指数... - 政府公开的...

  • 百度指数获取踩坑小结

    引言 经过若干天不断地踩坑,总算能够正常获取百度指数啦,Just for fun~ 百度指数爬虫开发的难点不在于爬...

  • NodeJs + Phantomjs 简易爬虫

    NodeJs + Phantomjs 简易爬虫 爬虫是什么? 引用百度百科的说法是: 如何在NodeJs上搭建爬虫...

  • 爬虫天坑系列-百度指数爬虫

    原文链接:http://blog.shenjianshou.cn/?p=170 最近有很多朋友跟我说,“爬虫这东西...

  • 数据采集项目中常见爬虫代理测试分析

    数据采集项目中常见爬虫代理测试分析 淘宝、百度找一遍,发现HTTP代理、爬虫代理、爬虫IP的产...

  • 爬虫基础复习

    爬虫 1. 请阐述通用爬虫和聚焦爬虫的概念 通常情况下,我们将搜索引擎使用的爬虫我们称之为通用爬虫,就像谷歌和百度...

  • python爬虫系列之 xpath实战:批量下载壁纸

    一、前言 在开始写爬虫之前,我们先了解一下爬虫 首先,我们需要知道爬虫是什么,这里直接引用百度百科的定义 网络爬虫...

  • 【爬虫教程】吐血整理,最详细的爬虫入门教程~

    初识爬虫 学习爬虫之前,我们首先得了解什么是爬虫。来自于百度百科的解释: 网络爬虫(又称为网页蜘蛛,网络机器人,在...

  • 初识爬虫(1)

    初识爬虫 学习爬虫之前,我们首先得了解什么是爬虫。来自于百度百科的解释: 网络爬虫(又称为网页蜘蛛,网络机器人,在...

网友评论

      本文标题:百度指数爬虫|爬虫篇(一)

      本文链接:https://www.haomeiwen.com/subject/pkbsohtx.html