美文网首页
[Python] Selenium自动化爬取公众号全部推文

[Python] Selenium自动化爬取公众号全部推文

作者: 半为花间酒 | 来源:发表于2020-05-03 12:23 被阅读0次

    转载请注明:陈熹 chenx6542@foxmail.com (简书号:半为花间酒)
    若公众号内转载请联系公众号:早起Python

    Selenium浏览器自动化需要依赖ChromeDriver
    详细的配置参见崔庆才博客:[Python3网络爬虫开发实战] 1.2.3-ChromeDriver的安装

    (本文暂时不考虑火狐浏览器,配置和代码和Chrome浏览器略有不同)

    一、Selenium介绍

    Selenium 是一个用于web应用程序自动化测试的工具,直接运行在浏览器当中,可以通过代码控制与页面上元素进行交互,并获取对应的信息

    其很大的一个优点是:不需要复杂地构造请求,访问参数跟使用浏览器的正常用户一模一样,访问行为也相对更像正常用户,不容易被反爬虫策略命中,所见即所得。Selenium常常是面对一个奇怪反爬网站无从入手的最后一道防线

    当然也有缺点:操作均需要等待页面加载完毕后才可以继续进行,所以速度要慢,效率不高

    二、需求分析和代码实现

    目的:获取 早起Python 公众号全部推文的标题、日期、链接

    如果要获取公众号的相关信息,有一个很好途径是 搜狗微信检索
    但其涉及的反爬措施有 cookie设置,js加密等等,基于requests爬取稍有难度
    今天就利用Selenium大法

    首先导入所需的库和实例化浏览器对象

    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support import expected_conditions as EC
    from selenium.webdriver.support.wait import WebDriverWait
    # 导入第2-4行是为了马上会提到的 显式等待
    import time
    import datetime
    
    driver = webdriver.Chrome()
    driver.get('https://weixin.sogou.com/')
    

    上述的代码就可以实现打开搜狗微信搜索的操作

    接下来需要往搜索框里输入文字,并且点击“搜文章”
    (不直接点搜公众号是因为已经取消通过公众号直接获取相应文章的功能)

    wait = WebDriverWait(driver, 10)
    input = wait.until(EC.presence_of_element_located((By.NAME, 'query')))
    input.send_keys('早起Python')
    driver.find_element_by_xpath("//input[@class='swz']").click()
    

    逻辑是设定最长等待时间,在10s内发现了输入框已经加载出来后就输入“早起Python”,并且根据“搜文章”按钮的xpath获取该位置并点击

    这里就用到了显式等待
    Selenium请求网页等待响应受到网速牵制
    如果元素未加载全而代码执行过快就会意外报错而终止
    解决方式是等待

    隐式等待是在尝试发现某个元素的时候,如果没能立刻发现,就等待固定长度的时间: driver.implicitly_wait(10)

    显示等待明确了等待条件,只有该条件触发,才执行后续代码,如这里我用到的代码

    当然也可以用time模块之间设定睡眠时间,睡完了再运行后续代码

    跳转了下一页后可以发现不是所有的文章都由“早起Python”公众号推送

    另外只能获取前10页100条的结果,中间需要微信扫码登录

    因此从这里开始,代码的执行逻辑为

    1. 先遍历前10页100个文章的公众号名字,如果不是“早起Python”则跳过,是则获取对应的标题名字、发布日期和链接
    2. 第10页遍历完成后自动点击登录,此时人为扫码确定登录
    3. 代码检测登录是否完成(可以简化为识别“下一页”按钮是否出现),如果登录完成则继续从11页遍历到最后一页(没有“下一页”按钮)

    由于涉及两次遍历则可以将解析信息包装成函数

    num = 0
    
    def get_news():
        global num # 放全局变量是为了给符合条件的文章记序
        time.sleep(1)
        news_lst = driver.find_elements_by_xpath("//li[contains(@id,'sogou_vr_11002601_box')]")
        for news in news_lst:
            # 获取公众号来源
            source = news.find_elements_by_xpath('div[2]/div/a')[0].text
            if '早起' not in source:
                continue
            num += 1
            # 获取文章标题
            title = news.find_elements_by_xpath('div[2]/h3/a')[0].text
            # 获取文章发表日期
            date = news.find_elements_by_xpath('div[2]/div/span')[0].text
            # 文章发表的日期如果较近可能会显示“1天前” “12小时前” “30分钟前”
            # 这里可以用`datetime`模块根据时间差求出具体时间
            # 然后解析为`YYYY-MM-DD`格式
            if '前' in date:
                today = datetime.datetime.today()
                if '天' in date:
                    delta = datetime.timedelta(days=int(date[0]))
                elif '小时' in date:
                    delta = datetime.timedelta(hours=int(date.replace('小时前', ' ')))
                else:
                    delta = datetime.timedelta(minutes=int(date.replace('分钟前', ' ')))
                date = str((today - delta).strftime('%Y-%m-%d'))
            date = datetime.datetime.strptime(date, '%Y-%m-%d').strftime('%Y-%m-%d')
            # 获取url
            url = news.find_elements_by_xpath('div[2]/h3/a')[0].get_attribute('href')
            print(num, title, date)
            print(url)
            print('-' * 10)
    
    for i in range(10):
        get_news()
        if i == 9:
            # 如果遍历到第十页则跳出循环不需要点击“下一页”
            break
        driver.find_element_by_id("sogou_next").click()
    

    接下来就是点击“登录”,然后人为扫码登录
    可以利用while True检测登录是否成功,是否出现了下一页按钮,如果出现则跳出循环,点击“下一页”按钮并继续后面的代码,否则睡3秒后重复检测

    driver.find_element_by_name('top_login').click()
    while True:
        try:
            next_page = driver.find_element_by_id("sogou_next")
            break
        except:
            time.sleep(3)
    next_page.click()
    

    效果如图:

    然后就是重新遍历文章了,由于不知道最后一页是第几页可以使用while循环反复调用解析页面的函数半点击“下一页”,如果不存在下一页则结束循环

    while True:
        get_news()
        try:
            driver.find_element_by_id("sogou_next").click()
        except:
            break
    
    # 最后退出浏览器即可
    driver.quit()
    

    是不是少了点什么?对,就是数据存储
    利用openpyxl存储到excel中

    直接放上包括excel存储的最终代码:

    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support import expected_conditions as EC
    from selenium.webdriver.support.wait import WebDriverWait
    import time
    import datetime
    from openpyxl import Workbook
    
    wb = Workbook()
    sheet = wb.active
    sheet.title = '公众号推文'
    header = ['标题', '时间', '链接']
    sheet.append(header)
    
    
    driver = webdriver.Chrome()
    driver.get('https://weixin.sogou.com/')
    wait = WebDriverWait(driver, 10)
    input = wait.until(EC.presence_of_element_located((By.NAME, 'query')))
    input.send_keys('早起Python')
    driver.find_element_by_xpath("//input[@class='swz']").click()
    
    num = 0
    def get_news():
        global num
        time.sleep(1)
        news_lst = driver.find_elements_by_xpath("//li[contains(@id,'sogou_vr_11002601_box')]")
        for news in news_lst:
            source = news.find_elements_by_xpath('div[2]/div/a')[0].text
            if '早起' not in source:
                continue
            num += 1
            title = news.find_elements_by_xpath('div[2]/h3/a')[0].text
            date = news.find_elements_by_xpath('div[2]/div/span')[0].text
            if '前' in date:
                today = datetime.datetime.today()
                if '天' in date:
                    delta = datetime.timedelta(days=int(date[0]))
                elif '小时' in date:
                    delta = datetime.timedelta(hours=int(date.replace('小时前', ' ')))
                else:
                    delta = datetime.timedelta(minutes=int(date.replace('分钟前', ' ')))
                date = str((today - delta).strftime('%Y-%m-%d'))
            date = datetime.datetime.strptime(date, '%Y-%m-%d').strftime('%Y-%m-%d')
            url = news.find_elements_by_xpath('div[2]/h3/a')[0].get_attribute('href')
            print(num, title, date)
            print(url)
            print('-' * 10)
            row = [title, date, url]
            sheet.append(row)
    
    for i in range(10):
        get_news()
        if i == 9:
            break
        driver.find_element_by_id("sogou_next").click()
    
    driver.find_element_by_name('top_login').click()
    
    while True:
        try:
            next_page = driver.find_element_by_id("sogou_next")
            break
        except:
            time.sleep(3)
    
    next_page.click()
    
    while True:
        get_news()
        try:
            driver.find_element_by_id("sogou_next").click()
        except:
            break
    
    driver.quit()
    
    wb.save('早起Python.xlsx')
    

    一个简单的Selenium爬虫就完成了!

    相关文章

      网友评论

          本文标题:[Python] Selenium自动化爬取公众号全部推文

          本文链接:https://www.haomeiwen.com/subject/oykdghtx.html