美文网首页机器学习与数据挖掘大数据
数据新知 | Python数据挖掘和可视化分析

数据新知 | Python数据挖掘和可视化分析

作者: 数据科学 | 来源:发表于2018-04-11 23:56 被阅读0次

    我们都试图在认识别人,了解他人,从而更好的完成社会化大分工。但是可能往往忽略了客观的认识自己.

    我也经常在思索自己是个怎么样的人?

    今天恰好有时间,就用我的评论数据来告诉自己,我是个什么样的人

    研究主题:用数据刻画人物

    那既然要用数据说话,那我们就锁定下数据源.

    数据源:网易新闻历史跟贴数据

    研究方法:

    使用自然语言处理NLP,获取自己的跟贴习惯和跟贴时间分布, 从而了解自己喜好和休闲时间分布

    涉及技术:

    Python, 数据爬虫,,matplotlib, NLP中文分析,BDP可视化等.

    1. 获取数据

    我的网易APP截图

    据网易统计,我阅读历史总量为 15409篇文章

    其中评论为292条, 说明我还是一位非标准喷子易友~

    评论转化率:跟贴数/阅读总数*100%  = 292/15409 =0.018 的确少的可怜.

    注:原本打算使用网易阅读历史作为数据源,但是由于偷懒没找到阅读历史记录的网易接口,所以只好使用跟贴数据来在分析和研究, 

    1.1 网易新闻客户端跟贴接口

    接口地址:

    https://comment.api.163.com/api/v1/products/a2869674571f77b5a0867c3d71db5856/users/0/myComments?offset=0&limit=10&_=1523443919597&callback=jsonp2

    字段说明:

    offset为数据起始点

    limit 为返回数据量

    a2869674571f77b5a0867c3d71db5856 为用户唯一ID ,网易Mapping ID

    接口返回:

    返回为Json格式的数据,这里使用Python爬虫,一个For循环,循环得到全部的评论数据.并存储到文本文件中,等待分析。

    接口数据如下图:

    网易评论接口数据样式

    Python爬虫实现方法再次不具体展开.

    2. 自然语言处理NLP

    因为是评论的文本数据,所以我们直接可以通过NLP来处理从而得到我们需要的数据,

    引用到的库:

    jieba / jieba-fast -中文分词

    Counter计数器

    wordcloud -词云库

    matplotlib等

    安装库文件

    安装词云库

    那我们开始:分析逻辑如下:

    1. python读取文本获取评论数据

    2.jieba分词,去掉停词和无关字符(地址,头像,标点符号等)

    3.Counter统计词频

    4. matlotlib,wordcloud输出词云

    5. 时间分布合并与分类合并

    3 分析结论

    3.1 评论时间分布

    工作日评论时间分布 费工作日评论时间分布

    根据时间分布可以观测出,在13点和晚上11点 评论最活跃.

    按照评论量分布可以推测出这个时间段的阅读量 =  评论量/评论率 

    3.2 频道关注度

    根据频道分布可以判断出,兴趣点为: 科技 >  社会 > 财经

    频道占比

    3.3 兴趣词云

    兴趣词词云

    我们可以根据词性分类,划分出不同的词类

    公司关注度:谷歌  > 百度 > 腾讯 > 苹果 > 联想  >  京东 >微软  > 今日头条 > 大疆 > 滴滴

    手机品牌关注度:苹果 > 华为 > 魅族 > 小米

    时政关注度: 中国 > 日本 > 美国 > 国内 > 国外 > 泰国

    黑科技关注度:比特币 > 人工智能 > 区块链 > 样本(机器学习) > 无人机

    羞羞关注度 : 美女 > 妹子 > 杜蕾斯 > 男女

    人物关注度: 马化腾 >  孙正义 > 张继科

    外汇关注度: 美金 > 日元 >泰铢 

    小结: 我还是一位关注时政财经,爱好学习科技的不宅男青年!

    时间成本:

    1. 网易新闻APP接口查找  - 3分钟

    2. Python爬虫数据编写和爬取数据 - 10分钟

    3. Python文本分析 - 26分钟

    4. BDP可视化  -  35分钟(有个坑,和Tableua词云不同的地方是词频规则,又加工了下数据)

    5. 文章编写: 30 分钟.(反复修改了几次, 还会在修改)

    附录:

    1. BDP分享链接:https://me.bdp.cn/api/su/TP3X6FYN

    2. 分析中所涉及代码,有兴趣可以留言.

    相关文章

      网友评论

        本文标题:数据新知 | Python数据挖掘和可视化分析

        本文链接:https://www.haomeiwen.com/subject/rpjtkftx.html