美文网首页python_文本分析我爱编程文本分析
用python爬取天猫商品评论(0)

用python爬取天猫商品评论(0)

作者: Java丶Script | 来源:发表于2018-02-10 23:32 被阅读857次

  由于日后实习需要,新年假期在家里有空写了个抓取天mao评论的程序,并用python的snownlp模块进行简单的情感分析,由于本人刚接触python,项目可能有许多不足,请大家谅解!具体流程如下:

0.主要流程

0.数据采集

0. 目标网址获取

首先,获取自己要爬取的商品网页。如图:

这里用iPhone x的商品做样例(博主目前使用的手机是小米3,穷鬼啊有没有!)。因为加载评论的页面用js封装起来了。因此需要用到浏览器开发者工具获取保存评论的页面,直接按F12打开。如图:

在NETwork//js目录下有一个形如上图的网址(巨长无比呀),细心发现会有一个page=1的字段,这个是控制不同页数的关键字!因此我们只需要改变page的值就能爬取不同页面的内容了!!具体代码如下:

# -*- coding: utf-8 -*-

import urllib.request

import json

import time

import re

import pymysql

def find_message(url,x,j):

    print('已有' + str(x) + '页无法获取')

    #读取网页数据

    html = urllib.request.urlopen(url).read().decode('gbk')

    #筛选json格式数据

    jsondata=re.search('^[^(]*?\((.*)\)[^)]*$', html).group(1)

    #用json加载数据

    data = json.loads(jsondata)

    #数据保存在变量里

    conn = pymysql.connect(host='localhost', port=3306, user='root', passwd='1234', db='pysql', charset='utf8')

    cur = conn.cursor()

    # 连接mysql

    print('连接成功!!!!')

    try:

        for i in range(0, len(data['rateDetail']['rateList'])):

            #print(str(i + 1) + data['rateDetail']['rateList'][i])

            name = data['rateDetail']['rateList'][i]['displayUserNick']

            #处理过的用户名

            content = data['rateDetail']['rateList'][i]['rateContent']

            #当天评论

            time = data['rateDetail']['rateList'][i]['rateDate']

            # 评论日期

            iphonetype = data['rateDetail']['rateList'][i]['auctionSku']

            #机型

            appenddays = data['rateDetail']['rateList'][i]['appendComment']['days']

            #追加评论的天数

            appendtime=data['rateDetail']['rateList'][i]['appendComment']['commentTime']

            #追加评论的时间

            appendcontent=data['rateDetail']['rateList'][i]['appendComment']['content']

            #追加评论的内容

            cur.execute("insert into iphonex(用户名,当天评论,当天时间,机型,追加天数,追加时间,追加评论) values (\"%s\",\"%s\",\"%s\",\"%s\",%d,\"%s\",\"%s\")"%(str(name),str(content),str(time),str(iphonetype),int(appenddays),str(appendtime),str(appendcontent)))

        print(str(j+1)+"页数据已经保存")

        #数据插入mysql

        return x

    except BaseException:

        x+=1

        print('已有'+str(x)+'页无法获取')

        print("####此页无法获取####")

        return x

#主函数

x=0

for j in range(1,50):

    try:

        print("正在获取第{}页评论数据!".format(j))

        url = 'https://rate.tmall.com/list_detail_rate.htm?itemId=560257961625&spuId=893336129&sellerId=1917047079&order=3¤tPage=' + str(j) +'&append=1&' \

              'content=1&tagId=&posi=&picture=0&ua=098%23E1hvLpvZv7UvUpCkvvvvvjiPPLLhzjtbPscOsjljPmPhljlUR25Z0jlURFSWljn8RFyCvvpvvvvvdphvmpvhOOhvvv2' \

              'psOhCvv147GzzgY147Dunrn%2FrvpvEvvkj9oIuvWLMdphvmpvWPgEboQvgfOhCvv14cOjzyC147DikWn%2Fjvpvhvvpvv8wCvvpvvUmmRphvCvvvvvvPvpvhMMGvvvyCvhQpm' \

              'kwvCszEDajxRLa9mNLhQnmOjVQ4S47B9CkaU6bnDO2hV36AxYjxAfyp%2B3%2BuQjc60fJ6EvLv%2BExreE9aUExr0jZ7%2B3%2Buzjc61C4Auphvmvvv9bvT4yc7kphvC99v' \

              'vOClpbyCvm9vvvvvphvvvvvv96Cvpvs4vvm2phCvhRvvvUnvphvppvvv96CvpCCvvphvC9vhvvCvp86Cvvyv224CeiIvHUytvpvhvvvvv86CvvyvhEKCFgGv1WQtvpvhvvvvvUh' \

              'CvmDz7GczTr147Dup2nGD1TAqsd%2FoU0dieGd8S6STvI8byIKB9OHmvtmWyv%3D%3D&isg=BAMDf2HuXRdECBGLXKb6oZc2ksdt0Jbc5_lgETXg6mLa9CIWvUsTCypmaoS61O-y&itemPropertyId=&itemPropertyIndex=&userProp' \

              'ertyId=&userPropertyIndex=&rateQuery=&location=&needFold=0&_ksTS=1518175553706_1200&callback=jsonp1201'

        x=find_message(url,x,j)

        time.sleep(3)

        # 设置时间间隔(这个不要忽视)

    except BaseException:

        continue

说几点代码的问题:

js网页效果图如下:

jsondata=re.search('^[^(]*?\((.*)\)[^)]*$', html).group(1)

由网页效果图可知,评论信息是保存在jsonp719()里面的,因此需要用正则表达式获取()里面的内容,去除无用部分,然后用json.loads得到字典data。

如上图,用pycharm里面的json格式打开输出的数据data可以得到想要的数据在字典中位置。

在data = json.loads(jsondata)后面加print(data)输出原数据会发现一些问题:如下

打开图中url得到:

没错这个就是securitymatrix(下篇文章介绍),这样会有一些页面无法获取一些页面,所以需要设置 time.sleep(3),这里用参数3,其实最好用random()选随机数3到5的参数(这样T猫机器人没那么容易发现你也是它的同类,页面丢失率会降低,当然你也可以写个函数重新获取丢失的页面) 

运行结果:

由于丢失了2页数据,所以剩下960条记录(50页每页20条)

好了爬取工作完成了!

1. 爬虫框架选用

本来打算是用python的selenium模块模拟登录爬取的但是由于天猫的securitymatrix安全系统()比较强大,博主还没有能力破解,这里只能使用自己写的流程用request库抓取网页。

当然你也可以选择python的scrapy模块爬取,这个看个人喜好吧!核心思路是不变的。

好了爬虫部分写到这里了,后面的内容以后会更新!由于博主还是小白,写的代码,特别是异常处理写的不是很规范。希望各位大师指点。

听说帅的人都点赞和打赏了!

  那么你帅吗????^-^

    还有欢迎各位留言交流!!!

      预祝2018,新年快乐!

相关文章

网友评论

本文标题:用python爬取天猫商品评论(0)

本文链接:https://www.haomeiwen.com/subject/bkohtftx.html