美文网首页技匠志Python开发编程的乱七八糟
使用Python爬一爬网易云音乐上那些评论火爆的歌曲

使用Python爬一爬网易云音乐上那些评论火爆的歌曲

作者: 简单的土豆 | 来源:发表于2016-11-04 17:20 被阅读9300次

    网易云音乐这款音乐APP本人比较喜欢,用户量也比较大,而网易云音乐之所以用户众多和它的歌曲评论功能密不可分,很多歌曲的评论非常有意思,其中也不乏很多感人的评论。但是,网易云音乐并没有提供热评排行榜和按评论排序的功能,没关系,本文就使用爬虫给大家爬一爬网易云音乐上那些热评的歌曲。

    • 结果

    对过程没有兴趣的童鞋直接看这里啦。

    评论数大于五万的歌曲排行榜

    首先恭喜一下我最喜欢的歌手(之一)周杰伦的《晴天》成为网易云音乐第一首评论数过百万的歌曲!

    通过结果发现目前评论数过十万的歌曲正好十首,通过这前十首发现:

    • 薛之谦现在真的很火啦~
    • 几乎都是男歌手啊,男歌手貌似更受欢迎?(别打我),男歌手中周杰伦、薛之谦、许嵩(这三位我都比较喜欢)几乎占了榜单半壁江山...
    • 《Fade》电音强势来袭,很带感哈(搭配炫迈写代码完全停不下来..)

    根据结果做了网易云音乐歌单 :

    提示: 评论数过五万的歌曲 歌单中个别歌曲由于版权问题暂时下架,暂由其他优秀版本代替。
    高能预警:TOP 29 《Lost Rivers》请慎重播放,如果你坚持播放请先看评论...

    • 过程
      1. 观察网易云音乐官网页面HTML结构
        首页(http://music.163.com/
        歌单分类页(http://music.163.com/discover/playlist)。
        歌单页(http://music.163.com/playlist?id=499518394
        歌曲详情页(http://music.163.com/song?id=109998

      2. 爬取歌曲的ID
        通过观察歌曲详情页的URL,我们发现只要爬取到对应歌曲的ID就可以得到它的详情页URL,而歌曲的信息都在详情页。由此可知只要收集到所有歌曲的ID那么就可以得到所有歌曲的信息啦。而这些ID要从哪里爬呢?从歌单里爬,而歌单在哪爬呢?通过观察歌单页的URL我们发现歌单也有ID,而歌单ID可以从歌单分类页中爬,好了就这样爬最终就能收集到所有歌曲的ID了。

      3. 通过爬取评论数筛选出符合条件的歌曲



        很遗憾的是评论数虽然也在详情页内,但是网易云音乐做了防爬处理,采用AJAX调用评论数API的方式填充评论相关数据,由于异步的特性导致我们爬到的页面中评论数是空,那么我们就找一找这个API吧,通关观察XHR请求发现是下面这个家伙..




        响应结果很丰富呢,所有评论相关的数据都有,不过经过观察发现这个API是经过加密处理的,不过没关系...
      4. 爬取符合条件的歌曲的详细信息(名字,歌手等)
        这一步就很简单了,观察下歌曲详情页的HTML很容易就能爬到我们要的名字和歌手信息。

    • 源码
    # encoding=utf8
    import requests
    from bs4 import BeautifulSoup
    import os, json
    import base64
    from Crypto.Cipher import AES
    from prettytable import PrettyTable
    import warnings
    
    warnings.filterwarnings("ignore")
    BASE_URL = 'http://music.163.com/'
    _session = requests.session()
    # 要匹配大于多少评论数的歌曲
    COMMENT_COUNT_LET = 100000
    
    
    class Song(object):
        def __lt__(self, other):
            return self.commentCount > other.commentCount
    
    
    # 由于网易云音乐歌曲评论采取AJAX填充的方式所以在HTML上爬不到,需要调用评论API,而API进行了加密处理,下面是相关解决的方法
    def aesEncrypt(text, secKey):
        pad = 16 - len(text) % 16
        text = text + pad * chr(pad)
        encryptor = AES.new(secKey, 2, '0102030405060708')
        ciphertext = encryptor.encrypt(text)
        ciphertext = base64.b64encode(ciphertext)
        return ciphertext
    
    
    def rsaEncrypt(text, pubKey, modulus):
        text = text[::-1]
        rs = int(text.encode('hex'), 16) ** int(pubKey, 16) % int(modulus, 16)
        return format(rs, 'x').zfill(256)
    
    
    def createSecretKey(size):
        return (''.join(map(lambda xx: (hex(ord(xx))[2:]), os.urandom(size))))[0:16]
    
    
    # 通过第三方渠道获取网云音乐的所有歌曲ID
    # 这里偷了个懒直接从http://grri94kmi4.app.tianmaying.com/songs爬了,这哥们已经把官网的歌曲都爬过来了,省事不少
    # 也可以使用getSongIdList()从官方网站爬,相对比较耗时,但更准确
    def getSongIdListBy3Party():
        pageMax = 1  # 要爬的页数,可以根据需求选择性设置页数
        songIdList = []
        for page in range(pageMax):
            url = 'http://grri94kmi4.app.tianmaying.com/songs?page=' + str(page)
            # print url
            url.decode('utf-8')
            soup = BeautifulSoup(_session.get(url).content)
            # print soup
            aList = soup.findAll('a', attrs={'target': '_blank'})
            for a in aList:
                songId = a['href'].split('=')[1]
                songIdList.append(songId)
        return songIdList
    
    
    # 从官网的 发现-> 歌单 页面爬取网云音乐的所有歌曲ID
    def getSongIdList():
        pageMax = 1  # 要爬的页数,目前一共42页,爬完42页需要很久很久,可以根据需求选择性设置页数
        songIdList = []
        for i in range(1, pageMax + 1):
            url = 'http://music.163.com/discover/playlist/?order=hot&cat=全部&limit=35&offset=' + str(i * 35)
            url.decode('utf-8')
            soup = BeautifulSoup(_session.get(url).content)
            aList = soup.findAll('a', attrs={'class': 'tit f-thide s-fc0'})
            for a in aList:
                uri = a['href']
                playListUrl = BASE_URL + uri[1:]
                soup = BeautifulSoup(_session.get(playListUrl).content)
                ul = soup.find('ul', attrs={'class': 'f-hide'})
                for li in ul.findAll('li'):
                    songId = (li.find('a'))['href'].split('=')[1]
                    print '爬取歌曲ID成功 -> ' + songId
                    songIdList.append(songId)
        # 歌单里难免有重复的歌曲,去一下重复的歌曲ID
        songIdList = list(set(songIdList))
        return songIdList
    
    
    # 匹配歌曲的评论数是否符合要求
    # let 评论数大于值
    def matchSong(songId, let):
        url = BASE_URL + 'weapi/v1/resource/comments/R_SO_4_' + str(songId) + '/?csrf_token='
        headers = {'Cookie': 'appver=1.5.0.75771;', 'Referer': 'http://music.163.com/'}
        text = {'username': '', 'password': '', 'rememberLogin': 'true'}
        modulus = '00e0b509f6259df8642dbc35662901477df22677ec152b5ff68ace615bb7b725152b3ab17a876aea8a5aa76d2e417629ec4ee341f56135fccf695280104e0312ecbda92557c93870114af6c9d05c4f7f0c3685b7a46bee255932575cce10b424d813cfe4875d3e82047b97ddef52741d546b8e289dc6935b3ece0462db0a22b8e7'
        nonce = '0CoJUm6Qyw8W8jud'
        pubKey = '010001'
        text = json.dumps(text)
        secKey = createSecretKey(16)
        encText = aesEncrypt(aesEncrypt(text, nonce), secKey)
        encSecKey = rsaEncrypt(secKey, pubKey, modulus)
        data = {'params': encText, 'encSecKey': encSecKey}
        req = requests.post(url, headers=headers, data=data)
        total = req.json()['total']
        if int(total) > let:
            song = Song()
            song.id = songId
            song.commentCount = total
            return song
    
    
    # 设置歌曲的信息
    def setSongInfo(song):
        url = BASE_URL + 'song?id=' + str(song.id)
        url.decode('utf-8')
        soup = BeautifulSoup(_session.get(url).content)
        strArr = soup.title.string.split(' - ')
        song.singer = strArr[1]
        name = strArr[0].encode('utf-8')
        # 去除歌曲名称后面()内的字,如果不想去除可以注掉下面三行代码
        index = name.find('(')
        if index > 0:
            name = name[0:index]
        song.name = name
    
    
    # 获取符合条件的歌曲列表
    def getSongList():
        print ' ##正在爬取歌曲编号... ##'
        # songIdList = getSongIdList()
        songIdList = getSongIdListBy3Party()
        print ' ##爬取歌曲编号完成,共计爬取到' + str(len(songIdList)) + '首##'
        songList = []
        print ' ##正在爬取符合评论数大于' + str(COMMENT_COUNT_LET) + '的歌曲... ##'
        for id in songIdList:
            song = matchSong(id, COMMENT_COUNT_LET)
            if None != song:
                setSongInfo(song)
                songList.append(song)
                print '成功匹配一首{名称:', song.name, '-', song.singer, ',评论数:', song.commentCount, '}'
        print ' ##爬取完成,符合条件的的共计' + str(len(songList)) + '首##'
        return songList
    
    
    def main():
        songList = getSongList()
        # 按评论数从高往低排序
        songList.sort()
        # 打印结果
        table = PrettyTable([u'排名', u'评论数', u'歌曲名称', u'歌手'])
        for index, song in enumerate(songList):
            table.add_row([index + 1, song.commentCount, song.name, song.singer])
        print table
        print 'End'
    
    
    if __name__ == '__main__':
        main()
    
    

    友情提示:随着网易云音乐网站结构、接口、加密方式的更换本代码可能并不能很好的工作,不过过程和原理都是一样的,这里也只是给大家分享一下这一过程啦。这里有个Java语言的实现教程不过源码不全,有兴趣的可以看看,本文代码中的getSongIdListBy3Party()就是从这哥们的结果中爬的。

    相关文章

      网友评论

      • a297ca2f1099:为什么用jupyter notebook爬不出来呢??下面是错误提示
        File "<ipython-input-28-9069368e7f5f>", line 77
        print '爬取歌曲ID成功 -> ' + songId
        ^
        SyntaxError: Missing parentheses in call to 'print'. Did you mean print(print '爬取歌曲ID成功 -> ' + songId)?
      • MrXu_3bae:问一下楼主:text = {'username': '', 'password': '', 'rememberLogin': 'true'} 是猜出来的命名规则么?还是在哪有明文显示需要传入这个几个 固定参数名的加密形式,还有一个问题,你的加密秘钥都是自己随意设置的么?对方服务不会验证么?
        简单的土豆:拦截它们API的请求是可以看出来规则的,加密的是公钥是公开的,也是可以找到的。
      • ofelia_why:还有一个问题是:
        return (''.join(map(lambda xx: (hex(ord(xx))[2:]), os.urandom(size))))[0:16]这条语句一直显示TypeError: ord() expected string of length 1, but int found,stackoverflow中找到是把ord()移除,但是这样数据类型就变成bytes,那么后面的加密解密函数就会出现问题?
      • ofelia_why:看了这个代码,也照着写了,就是有几个问题:
        1.cookie的数据,请问您是怎么得到的?
        2.getplayList中的这条解析语句我没在页面上找到,作者可以贴一分截图吗?
        :smiley:
      • 56ca67275a37:按照你的代码写了以后,但是没有爬取到任何歌曲,显示都是0,请问这是怎么回事呢
      • 2656bcd02476:楼主你好,我这边按照你的代码写了以后,但是没有爬取到任何歌曲,显示都是0,请问这是怎么回事啊?
        2656bcd02476:没有解决:joy:
        56ca67275a37:遇到一样的问题,请问你解决了吗?
      • marlboro111:请问楼主是怎么确定加密算法和密钥的?
      • 3ae4d215e1dc:不懂蟒蛇,佩服!
      • ce83ae981b93:在Python3.5中无法运行。看了下报错信息是secretkey那里返回值类型和python2不一样。
        能讲一下这三个函数吗?没咋看懂。。
        def aesEncrypt(text, secKey):
        pad = 16 - len(text) % 16
        text = text + pad * chr(pad)
        encryptor = AES.new(secKey, 2, '0102030405060708')
        ciphertext = encryptor.encrypt(text)
        ciphertext = base64.b64encode(ciphertext)
        return ciphertext


        def rsaEncrypt(text, pubKey, modulus):
        text = text[::-1]
        rs = int(text.encode('hex'), 16) ** int(pubKey, 16) % int(modulus, 16)
        return format(rs, 'x').zfill(256)


        def createSecretKey(size):
        return (''.join(map(lambda xx: (hex(ord(xx))[2:]), os.urandom(size))))[0:16]
      • 爱笑的彩虹少年:博主你好,为什么爬到一半不动了呢?
        爱笑的彩虹少年:@爱笑的彩虹少年 恕我愚昧,原来是评论数过10万的,没看清 :joy:
      • 9c5b5d79aa3c:怎么爬取第二页第三页的评论
        9c5b5d79aa3c:在post请求里面添加offset字段,表示偏移,offset默认值在js里面,默认20,自己每次设置offset就能获取所有的评论内容了
        522954ca0239:我也很好奇,小哥有研究出来么?这篇文章的作者是根据评论数来排序歌曲的,所以他只需要第一页的数据。
      • 微里尘:如何运行?
        简单的土豆:百度搜索下,Python2.7教程。
      • 不会飞的扫把:AES无法安装怎么解决?
        简单的土豆:@猪饲料 pip install pycrypto
        不会飞的扫把:@简单的土豆 ImportError: No module named Crypto.Cipher
        简单的土豆:@猪饲料 报什么错?
      • 过气的歌:杰伦无敌好吧
        简单的土豆:@过气的歌 必须
      • weir_will:前几天在知乎看过了
        简单的土豆:@看天的青蛙 我刚爬的…
      • 8562c261381a:lost rivers可是网易名曲呢,哈哈。
      • 70fb900966e4:学习!
      • bd520bb47f6c:厉害了
      • 妖小灰:厉害
      • 涩技师:厉害厉害
      • 若邪Y:ajax 可以用Selenium或PhantomJS
      • angelen:学习了
      • RITL:为了都喜欢网易云,也得把这篇看完哇:smile::smile:
      • a72e5821d05b:棒棒哒,我也用网易云,也喜欢看评论里的故事
        简单的土豆:@小医芽芽菜 :smile: :smile:
      • 简单的土豆:已经将整个结果做成歌单 《评论数过五万的歌曲》,已跟新至正文中 :kissing_heart:
      • GodLonely:只是自己学习的一个展示。
        GodLonely:@简单的土豆 感觉你应该把这句话放到文章里面,对于有用的人来说会更清楚判断技术的可用强度。不过还是赞赏你的学习能力
        简单的土豆:@低落的水花 没错,第一次用Python
      • dsgstudio:666其他平台
      • 王一航:表哥表哥,如果是ajax填充的数据应该怎么获取呢…有没有什么通用的办法呀😁
        简单的土豆:@王一航 只要发出HTTP请求 肯定能找到的,只不过API可能会有加密和认证。
        王一航:@王一航 那如果找不到api的话是不是就没办法啦?
        简单的土豆:@王一航 木有哦,只能找到对应的API 去请求,单独抓取。

      本文标题:使用Python爬一爬网易云音乐上那些评论火爆的歌曲

      本文链接:https://www.haomeiwen.com/subject/mlxwuttx.html