美文网首页python爬虫日记本python爬虫入门看这个就够了爬虫专题
selenium +phantomjs 爬取网易云音乐的评论信息

selenium +phantomjs 爬取网易云音乐的评论信息

作者: 战五渣_lei | 来源:发表于2018-01-01 21:37 被阅读100次
    1.前言

    网易云音乐的网页端与服务端通讯做了加密,本人才疏学浅破解不了,于是考虑用
    selenium +phantomjs的方式爬取,selenium 用pip install selenium 安装
    phantomjs 官网下载安装包即可,Python版本为3.6,用了mysql数据库,环境为win7 不过理论上linux mac也可以跑

    2.爬取思路

    点开一首歌的页面,这首歌的评论也会出现在页面下方,当然通常情况下一页是加载不完的,所以得通过模拟点击下一页的方式一页一页的捞评论,因为只是爬取数据顺便学习下,只爬取了用户id,用户昵称,建立了一个 userid nickname music 构成的mysql表,同时将爬取并且通过selenium 解析出来的页面信息缓存到本地,以后也许会有用的上的地方

    3.几个关键点

    在爬取过程中有几个点需要注意

    • 1.selenium +phantomjs 解析页面时,如果页面上用到了iframe,需要switch_to.frame()的方式切换到对应的iframe,否则可能会导致查找不到需要的 element
    • 2.页面上有异步的ajax请求时,最好在做操作后等待一会再查找element,否则有可能找不到数据
    • 3.有的操作是让页面重新走了下ajax请求如点击下一页,这个时候页面不需要重新加载url地址,有些则需要,比如这首歌的评论我爬完了,爬取下一首
    4.结合代码讲解下

    代码一个是操作数据的sqlinstance.py 一个是主程序 spider_main.py
    sqlinstance 用了sqlalchemy框架,目前只有一张表用于记录用户和歌曲的评论关系,
    代码如下

    from sqlalchemy import create_engine, text, Column, Integer, String, Sequence, \
        Date, UniqueConstraint, BigInteger
    from sqlalchemy.ext.declarative import declarative_base
    from sqlalchemy.orm import sessionmaker
    
    Base = declarative_base()
    
    
    class MusicCmt(Base):
        __tablename__ = "t_musiccmts"
        id=Column(Integer,primary_key=True,autoincrement=True)
        userid = Column(BigInteger)
        nickname=Column(String(20),nullable=False)
        musicid = Column(BigInteger, nullable=False)
        __table_args__ = (UniqueConstraint('nickname', 'musicid'),
                          )
    
    # 建立连接
    engine = create_engine('mysql+pymysql://pig:123456@localhost:3306/cloudmusic?charset=utf8'
                           ,encoding='utf-8',echo=False,pool_size=50, pool_recycle=3600)
    DBSession = sessionmaker(bind=engine)
    # 通过代码创建数据库
    try:
        MusicCmt.__table__.create(engine)
    except Exception as e :
        print(e)
        pass
    
    
    class SqlInstance:
        def addmark(self,**kwargs):
    
            session = DBSession()
            try:
                # 插入一条数据
                session.add(
                    MusicCmt(userid=kwargs['userid'], musicid=kwargs['musicid'],nickname=kwargs["nickname"]))
                session.commit()
            except Exception as e:
                print(e)
                pass
            session.close()
    sqlInstance=SqlInstance()
    

    代码看完 基本的sqlalchemy 建立mysql数据表并插入数据的操作就可以做了,其他复杂操作可以查官网,这里我也不多说了

    接下来是主程序了,因为元素定位是用来很多xpath的语法,不熟悉的同学最好先看下语法,然后自己打开一个网易云音乐的页面,用Chrome的检查元素,再通过xpath查询的方式定位element ,可以验证下代码和xpath语法

    主程序代码如下

    import os
    import re
    import time
    from selenium import webdriver
    from selenium.webdriver import DesiredCapabilities
    import configparser
    
    import sqlinstance
    # 将目标musicid存到了一个文件里面,这个如果要做大的话可以动态获得
    config = configparser.ConfigParser()
    config.read('myselectMusic.ini')
    musiclist= config['nemusic']['id'].split(",")
    # //PHANTOMJS自定义userAgent,避免被反爬
    dcap = dict(DesiredCapabilities.PHANTOMJS)
    dcap["phantomjs.page.settings.userAgent"] = (
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36"
    )
    
    driver = webdriver.PhantomJS(desired_capabilities=dcap)
    # 设置一个很长的网页加载数据,省的有些情况还得滚动页面
    driver.set_window_size(1920,5000)
    
    for musicid in musiclist:
        # 加载歌曲第一页
        driver.get("http://music.163.com/#/song?id=%s" % (musicid))
        # 等待网页ajax 请求完成
        time.sleep(1)
        ele = driver.find_element_by_class_name("g-iframe")
        # print(ele)
        # 页面里面有iframe嵌套,如果要定位的元素iframe里面
        # 必须切换,否则会查找不到
        driver.switch_to.frame(ele)
    
        pagenum=1
        # 查看下已经爬取了多少页,
        # 避免重复操作
        savedfiles = os.listdir("saves")
        thissaved = [a for a in
                     savedfiles if
                     a.startswith(musicid) and a.count("final")>0]
        if(len(thissaved)>0):
            continue
        maxpage=0
        try:
            thissaved = [int(a.replace(musicid + "_", "").replace(r".txt", "")) for a in savedfiles if
                         a.startswith(musicid)]
        except:
            maxpage == "final"
            pass
        if maxpage and maxpage == "final":
            continue
        if len(thissaved)>0:
            maxpage = sorted(thissaved, reverse=True)[0]
        else:
            maxpage=0
    
        maxpage=int(maxpage)
        if maxpage>0:
            current_is_end=False
            while True:
                # 这个xpath是查找页面底部的 1.2,3 。。。这些的翻页element
                # 点击就是跳的目标页了
                # 网易云音乐的布局是 最后一个是跳转下一页,倒数第二个是跳转最后一页
                # ,倒数第二个是翻一个大页面,如1-10 点了下就变成3-13 这种
                pagejumps = driver.find_elements_by_xpath(
                    "//div[contains(@class,'u-page')]/a")
                target=[ a for a in pagejumps if a.text==str(int(maxpage)+1)]
                if target:
                    pagenum = maxpage+1
                    target[0].click()
                    time.sleep(1)
                    break
                else:
                    pagejumps[-3].click()
                    time.sleep(1)
        while True:
            # 这个xpath就是找到当前页面的所有评论的用户昵称
            cmts=driver.find_elements_by_xpath("//div[@class='cnt f-brk']/a[@class='s-fc7']")
    # print(len(kk))
            if len(cmts)>0:
                for aelemnt in cmts:
                    urluid=aelemnt.get_attribute("href")
                    print("nikename:%s url%s" %(aelemnt.text,aelemnt.get_attribute("href")))
                    try:
                        # 从点击昵称的跳转链接正则解析出用户uid
                        saveuid=re.findall(r"id=(\d+)",urluid)[0]
                    except:
                        saveuid=None
                        pass
                    # 数据存入数据库
                    sqlinstance.sqlInstance.addmark(userid=saveuid, musicid=musicid,nickname=aelemnt.text)
            # 找到页面上的下一页按钮
            nextpagebtn=driver.find_element_by_xpath("//div[contains(@class,'u-page')]/a[text()='下一页']")
            str = driver.find_element_by_xpath("//html").get_attribute("innerHTML")
            # 判断当前页是否为最后一页
            if "js-disable" in nextpagebtn.get_attribute("class"):
                print("最后一页")
                # 缓存下爬取的数据
                with open("saves/%s_%s.txt" % (musicid, "final"), "w",encoding='utf-8') as f:
                    f.write(str)
                break
            else:
                nextpagebtn.click()
                with open("saves/%s_%s.txt" % (musicid, pagenum), "w",encoding='utf-8') as f:
                    f.write(str)
                pagenum += 1
                time.sleep(2)
    
    # 退出浏览器别忘了
    driver.quit()
    

    然后直接Python 跑下就好了,效果如图所示


    效果如图

    相关文章

      网友评论

        本文标题:selenium +phantomjs 爬取网易云音乐的评论信息

        本文链接:https://www.haomeiwen.com/subject/xxlagxtx.html