用Python爬取美团外卖APP评论

作者: 1想得美 | 来源:发表于2017-08-22 12:06 被阅读1394次

    一、介绍

    朋友暑假实践需要美团外卖APP评论这一份数据,一开始我想,这不就抓取网页源代码再从中提取数据就可以了吗,结果发现事实并非如此,情况和之前崔大讲过的分析Ajax来抓取今日头条街拍美图类似,都是通过异步加载的方式传输数据,不同的是这次的是通过JS传输,其他的基本思路基本一致,希望那些数据能帮到她吧

    二、流程

    • 目标站点分析
      用浏览器打开美团外卖APP评论,F12
      1.首先我们要找到我们想要的评论数据,在第一次“失败”的直接抓取网页源代码后,我们发现它是通过Ajax加载的,我们点击JS选项,可以发现JS项目里面的返回结果有我们想要的数据,勾选Preserve log,当点击查看更多评论时,后台(JS里)会出现新的Ajax请求,发现还有参数start和的变化,其他请求参数不变,start的参数变化是以10递增的,的参数变化可就让人摸不着头脑(这个时候我们也不要方,因为大多情况下没有规律的参数都是没用的)
      1.0

    2.经过我们对http://comment.mobilem.360.cn/comment/getComments?callback=jQuery17203361018749253357_1503362214558&baike=%E7%BE%8E%E5%9B%A2%E5%A4%96%E5%8D%96+Android_com.sankuai.meituan.takeoutnew&c=message&a=getmessage&start=0&count=10&_=1503362215647进行分析后发现它的标准式为‘http://comment.mobilem.360.cn/comment/getComments?&baike=%E7%BE%8E%E5%9B%A2%E5%A4%96%E5%8D%96+Android_com.sankuai.meituan.takeoutnew&start=’+str(i*10),i每次增加1,就包含新的十条评论的内容,所以我们通过改变i的值就可以拿到不同的数据

    2.0
    • 分析url的网页源代码,在源代码里有我们想要的评论数据,我们可以用正则(在这里正则还是比较好用的)把我们想要的信息弄下来

    • 开启循环,批量抓取

    • 保存数据至文本和数据库

    ---------------------------17/8/26第一次更新:关于获取评论的编码问题
    #之前是这样处理的:
    def parse_one_page(html):
        pattern2 = re.compile('"m_type":"0",(.*?),"username"', re.S)
        items=re.findall(pattern2,html)
        for item in items:
            item = "{" + item + "}"
            item=json.loads(item)
            write_to_file(item)
            print(item)
            save_to_mongo(item)
    
    #皮皮哥告诉了我他的独家正则匹配方法可以匹配出来,这样的确获得的item没有编码问题
    def parse_one_page(html):
        pattern = '\"content\":\".*?"'
        items=re.findall(pattern,html)
        for item in items:
            item =eval(item.split(':',1)[1])
            write_to_file(item)
            print(item)
            save_to_mongo(item)
    
    #对一般正则写法获得的item进行的方法,这是从皮皮哥那里得知的,亲测有效
    def parse_one_page(html):
        pattern = re.compile('rsion_name".*?"content":(.*?),"username"', re.S)
        items=re.findall(pattern,html)
        #print(items)
        for item in items:
            item = item.encode('utf-8').decode('unicode_escape')
            write_to_file(item)
            print(item)
            save_to_mongo(item)
    

    三、代码

    #config.py
    MONGO_URL='localhost'
    MONGO_DB='meituan'
    MONGO_TABLE='meituan'
    
    import requests
    from requests.exceptions import RequestException
    import json
    import re
    from day31.config import *
    import pymongo
    
    client=pymongo.MongoClient(MONGO_URL)
    db=client[MONGO_DB]
    base_url='http://comment.mobilem.360.cn/comment/getComments?callback=jQuery17209056727722758744_1502991196139&baike=%E7%BE%8E%E5%9B%A2%E5%A4%96%E5%8D%96+Android_com.sankuai.meituan.takeoutnew&start='
    
    def the_url(url):
        try:
            response = requests.get(url)
            if response.status_code==200:
                response.encoding='utf-8'
                return response.text
            return None
        except RequestException:
            print('请求出错')
            return None
    
    def the_total():
        html=the_url(base_url)
        pattern1 = re.compile('"total":(.*?),"messages"', re.S)
        Total = re.findall(pattern1, html)
        Total=int(':'.join(Total))
        #print(type(Total))
        show='总计评论%d条'%Total
        print(show)
        write_to_file(show)
        return Total
    
    def parse_one_page(html):
        pattern2 = re.compile('"m_type":"0",(.*?),"username"', re.S)
        items=re.findall(pattern2,html)
        for item in items:
            item = "{" + item + "}"
            item=json.loads(item)
            write_to_file(item)
            print(item)
            save_to_mongo(item)
    
    
    
    def save_to_mongo(result):
        try:
            if db[MONGO_TABLE].insert(result):
                print('储存到MongoDB成功',result)
        except Exception:
            print('储存到MongoDB失败',result)
    
    def write_to_file(content):
        with open('meituan_result.text','a',encoding='utf-8') as f:
            f.write(json.dumps(content,ensure_ascii=False)+'\n')
            f.close()
    
    def main():
        Total=the_total()
        Total=int(Total/10)+2
        for i in range(Total):
            url = base_url + str(i*10)
            if the_url(url)!=None:
                html=the_url(url)
                parse_one_page(html)
            else:
                print('输完啦')
        ps='PS:因为有些评论空,所以实际评论比抓取的少'   #这是我瞎猜的
        write_to_file(ps)
        print(ps)
    
    if __name__ == '__main__':
        main()
    

    四、最后得到的数据视图和文件

    3.0

    五、总结

    1.程序报错很正常,不要一报错就问别人,先自己思考、百度
    2.在数据类型处理方面的知识还要加强
    3.感谢皮皮哥、感谢姚文峰前辈!

    相关文章

      网友评论

      • Mo丶染洛凉:果真是妹子,我还以为你把“她”打错了:relaxed:
        Mo丶染洛凉:@1想得美 楼上的re用法第一次听说,下次我去试试:smile:
        1想得美:@Mo丶染洛凉 一起建设社会主义和谐社会:smirk_cat:
      • 麦口胡:items=re.findall(pattern2,html) 改成 item=pattern2.findall(html)
      • 麦口胡:Total = re.findall(pattern1, html) 这行写错了应该改成Total=pattern1.findall(html)
        1想得美:@麦口胡 嗯?可能写法不一样吧,我一直是用Total = re.findall(pattern1, html) 这种写法来匹配的

      本文标题: 用Python爬取美团外卖APP评论

      本文链接:https://www.haomeiwen.com/subject/rbqtdxtx.html