美文网首页
微信公众号文章爬取方法汇总(上)

微信公众号文章爬取方法汇总(上)

作者: 雨田君的记事本 | 来源:发表于2019-09-14 15:44 被阅读0次
    爬虫

    经常有朋友需要帮忙做公众号文章爬取,这次来做一个各种方法的汇总说明。
    目前爬取微信公众号的方法主要有3种:

    1. 通过爬取第三方的公众号文章聚合网站
    2. 通过微信公众平台引用文章接口
    3. 通过抓包程序,分析微信app访问公众号文章的接口

    通过第三方的公众号文章聚合网站爬取

    微信公众号文章一直没有提供一个对外的搜索功能,直到2013年微信投资搜狗之后,搜狗搜索接入微信公众号数据,从此使用搜狗搜索就可以浏览或查询到相关公众号以及文章。
    域名是: https://weixin.sogou.com/

    搜狗微信
    可以直接搜索公众号或者文章的关键字,一些热门的公众号更新还是很及时的,几乎做到了和微信同步。
    公众号搜索
    所以,爬一些热门公众号可以使用搜狗微信的接口来做,但是一些小众公众号是搜索不到的,而且搜狗的防爬机制更新的比较勤,获取数据的接口变化的比较快,经常两三个月就有调整,导致爬虫很容易挂,这里还是建议使用 selenium 爬比较省心。另外搜狗对每个ip也有访问限制,访问太频ip会被封禁24小时,需要买个ip池来做应对。
    还有一些其他公众号文章聚合网站(比如传送门)也都存在更新不及时或者没有收录的问题,毕竟搜狗这个亲儿子都不行。

    通过微信公众平台引用文章接口

    这个接口比较隐蔽而且没法匿名访问,所有得有一个公众号,建议新注册一个公众号比较好,免得被封。
    下面开始具体步骤:首先登录自己的微信公众号,在进去的首页选择新建群发,然后再点击自建图文,在文章编辑工具栏中找到超链接,如下图:

    点击超链接
    点击这个超链接按钮,就会弹出一个对话框,链接输入方式这一项选中查找文章,如下图:
    查找文章
    到这里就可以输入公众号的名字,回车之后微信就会返回相匹配的公众号列表,如下图:
    搜索公众号
    接着点击你想抓取的公众号,就会显示具体的文章列表了,已经是按时间倒序了,最新的文章就是第一条了。如下图:
    文章列表
    微信的分页机制比较奇怪,每个公众号的每页显示的数据条数是不一样的,分页爬的时候要处理一下。
    通过chrome分析网络请求的数据,我们想要的数据已经基本拿到了,文章链接、封面、发布日期、副标题等,如下图:
    网络请求数据
    OK,这种方法爬取的原理讲完了,下面开始实操了😀。
    由于微信公众平台登录验证比较严格,输入密码之后还必须要手机扫码确认才能登录进去,所以最好还是使用selenium做自动化比较好。具体微信接口的分析过程我就不列了,直接贴代码了:
    import re
    import time
    import random
    import traceback
    import requests
    
    from selenium import webdriver
    
    
    class Spider(object):
        '''
        微信公众号文章爬虫
        '''
    
        def __init__(self):
            # 微信公众号账号
            self.account = '286394973@qq.com'
            # 微信公众号密码
            self.pwd = 'lei4649861'
    
        def create_driver(self):
            '''
            初始化 webdriver
            '''
            options = webdriver.ChromeOptions()
            # 禁用gpu加速,防止出一些未知bug
            options.add_argument('--disable-gpu')
    
            # 这里我用 chromedriver 作为 webdriver
            # 可以去 http://chromedriver.chromium.org/downloads 下载你的chrome对应版本
            self.driver = webdriver.Chrome(executable_path='./chromedriver', chrome_options=options)
            # 设置一个隐性等待 5s
            self.driver.implicitly_wait(5)
    
        def log(self, msg):
            '''
            格式化打印
            '''
            print('------ %s ------' % msg)
    
        def login(self):
            '''
            登录拿 cookies
            '''
            try:
                self.create_driver()
                # 访问微信公众平台
                self.driver.get('https://mp.weixin.qq.com/')
                # 等待网页加载完毕
                time.sleep(3)
                # 输入账号
                self.driver.find_element_by_xpath("./*//input[@name='account']").clear()
                self.driver.find_element_by_xpath("./*//input[@name='account']").send_keys(self.account)
                # 输入密码
                self.driver.find_element_by_xpath("./*//input[@name='password']").clear()
                self.driver.find_element_by_xpath("./*//input[@name='password']").send_keys(self.pwd)
                # 点击登录
                self.driver.find_elements_by_class_name('btn_login')[0].click()
                self.log("请拿手机扫码二维码登录公众号")
                # 等待手机扫描
                time.sleep(10)
                self.log("登录成功")
                # 获取cookies 然后保存到变量上,后面要用
                self.cookies = dict([[x['name'], x['value']] for x in self.driver.get_cookies()])
    
            except Exception as e:
                traceback.print_exc()
            finally:
                # 退出 chorme
                self.driver.quit()
    
        def get_article(self, query=''):
            try:
                url = 'https://mp.weixin.qq.com'
                # 设置headers
                headers = {
                    "HOST": "mp.weixin.qq.com",
                    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36"
                }
                # 登录之后的微信公众号首页url变化为:https://mp.weixin.qq.com/cgi-bin/home?t=home/index&lang=zh_CN&token=1849751598,
                # 从这里获取token信息
                response = requests.get(url=url, cookies=self.cookies)
                token = re.findall(r'token=(\d+)', str(response.url))[0]
                time.sleep(2)
    
                self.log('正在查询[ %s ]相关公众号' % query)
                search_url = 'https://mp.weixin.qq.com/cgi-bin/searchbiz?'
                # 搜索微信公众号接口需要传入的参数,
                # 有三个变量:微信公众号token、随机数random、搜索的微信公众号名字
                params = {
                    'action': 'search_biz',
                    'token': token,
                    'random': random.random(),
                    'query': query,
                    'lang': 'zh_CN',
                    'f': 'json',
                    'ajax': '1',
                    'begin': '0',
                    'count': '5'
                }
                # 打开搜索微信公众号接口地址,需要传入相关参数信息如:cookies、params、headers
                response = requests.get(search_url, cookies=self.cookies, headers=headers, params=params)
                time.sleep(2)
                # 取搜索结果中的第一个公众号
                lists = response.json().get('list')[0]
                # 获取这个公众号的fakeid,后面爬取公众号文章需要此字段
                fakeid = lists.get('fakeid')
                nickname = lists.get('nickname')
    
                # 微信公众号文章接口地址
                search_url = 'https://mp.weixin.qq.com/cgi-bin/appmsg?'
    
                # 搜索文章需要传入几个参数:登录的公众号token、要爬取文章的公众号fakeid、随机数random
                params = {
                    'action': 'list_ex',
                    'token': token,
                    'random': random.random(),
                    'fakeid': fakeid,
                    'lang': 'zh_CN',
                    'f': 'json',
                    'ajax': '1',
                    'begin': '0',  # 不同页,此参数变化,变化规则为每页加5
                    'count': '5',
                    'query': '',
                    'type': '9'
                }
                self.log('正在查询公众号[ %s ]相关文章' % nickname)
                # 打开搜索的微信公众号文章列表页
                response = requests.get(search_url, cookies=self.cookies, headers=headers, params=params)
                time.sleep(2)
                for per in response.json().get('app_msg_list', []):
                    print('title ---> %s' % per.get('title'))
                    print('link ---> %s' % per.get('link'))
                    # print('cover ---> %s' % per.get('cover'))
    
            except Exception as e:
                traceback.print_exc()
    
    
    if __name__ == '__main__':
        spider = Spider()
        spider.login()
        spider.get_article('python')
    
    

    代码只是作为学习使用,没有做分页查询之类。
    据网友称,这个接口也有访问频次限制,一天几百次还是没啥问题,太快或者太多次访问就会被封24小时。

    下一篇我们来讲讲如何获取文章的阅读数和点赞数。

    参考文章

    https://segmentfault.com/a/1190000015642808
    https://cuiqingcai.com/4652.html

    相关文章

      网友评论

          本文标题:微信公众号文章爬取方法汇总(上)

          本文链接:https://www.haomeiwen.com/subject/xlwsbqtx.html