一次完整的数据分析流程主要分为六个环节,包括明确分析目的、数据获取、数据处理、数据分析、数据可视化、提出建议推动落地
一、明确分析目的
做任何事情都有其对应的目的,数据分析也是如此。每一次分析前,都必须要先明确做这次分析的目的是什么,只有先明确了目的,后面的分析才能围绕其展开。常见的数据分析目标包括以下三种类型:
波动解释型:某天的销售额突然下降了,某天的新用户留存突然降低了,这时候往往需要分析师去解释波动的原因,分析较为聚焦,主要是找到波动的原因。
数据复盘型:类似于月报、季报,在互联网领域常见于app某某功能上线了一段时间后,数据分析师往往需要复盘一下这个功能的表现情况,看看有没有什么问题。
专题探索型:对某个主题发起的专项探索,比如新用户流失、营收分析等等
二、数据获取
在明确的分析目标后,就可以根据目标去获取所需要的数据,数据获取主要可以分为外部数据和内部数据两类:可以外部数据和内部数据两类:
外部数据
想要获取外部数据,一是可以从公开的数据网站上查询,比如对于战略分析师,在研究进入某个地区或某个国家的策略时,往往就需要获取对应地区、国家的数据
国家数据:数据来源中华人民共和国国家统计局,包含了我国经济民生等多个方面的数据,并且在月度、季度、年度都有覆盖,全面又权威。
中国统计信息网:国家统计局的官方网站,汇集了海量的全国各级政府各年度的国民经济和社会发展统计信息,建立了以统计公报为主,统计年鉴、阶段发展数据、统计分析、经济新闻、主要统计指标排行等。github:一个非常全面的数据获取渠道,包含各个细分领域的数据库资源,自然科学和社会科学的覆盖都很全面,适合做研究和数据分析的人员
第二种获取外部数据的方法就是爬虫,这种方法会更加灵活,不过现在做爬虫会有一定的法律风险。
内部数据
内部数据是企业自身内部的数据,对于互联网行业,用户行为的数据是通过埋点的形式上报获取,最终储存在hive表中,作为数据分析师,需要用sql去把数据提取出来。
三、数据处理
数据处理阶段主要的目的是解决数据质量的问题,在数据采集环节中,内部的数据往往质量较好,但是外部数据,比如爬虫获取的数据,数据往往会比较杂乱,俗称“脏数据”,需要进行数据清洗,包括补全缺失值、删去异常值、重复值、进行数据转换等等
1 、异常值处理
什么是异常值?下面就是一个很明显的异常值的例子,这种异常值在我们进行分析时候,比如回归分析,这种值往往都要删掉,不然会对结果产生很大的影响。但是并不是所有情况异常值都要删掉,不同领域对异常值的处理方法不同,比如在风控领域,反而要重点关注异常值,因为大部分用户都是正常的,异常值可能就是作弊用户。
图片来自网络2、补全缺失值
有缺失值怎么办,补上。常见的补缺失值的办法包括:
1. 通过其他信息填补,比如通过身份证补充生日、籍贯等
2. 将样本进行分类,然后以该类中样本的均值、中位数补全
四、数据分析
数据处理好了之后,就可以开始分析,根据你的分析目标,要选择合适的分析方法。常见的分析方法包括:
描述性分析
描述性分析主要是对所收集的数据进行分析,得出反映客观现象的各种数量特征的一种分析方法,它包括数据的集中趋势分析、数据离散程度分析、数据的频数分布分析等,描述性分析是对数据进一步分析的基础。
推断性分析
推断性分析是研究如何根据样本数据来推断总体样本数量特征,它是在对样本数据进行描述统计分析的基础上,对研究总体的数量特征做出推断。常见的分析方法有假设检验、相关分析、回归分析、时间序列分析等方法。
探索性分析
探索性分析主要是通过一些分析方法从大量的数据中发现未知且有价值信息的过程,它不受研究假设和分析模型的限制,尽可能地寻找变量之间的关联性。常见的分析方法有聚类分析、因子分析、对应分析等方法。
五、数据可视化
通过数据分析得出结论后,还需要用图表展示出来,俗话说得好,“文不如表,表不如图",用图表可以更清晰展现你的结论。
六、提出建议并推动落地
基于你的分析目标得出结论后,数据分析师还应根据你的结论提出相对应的改进建议,并推动建议落地,这样才能完成一个完整的数据分析闭环。比如你发现新用户流失高的原因是因为某个新用户引导的节点有问题,那么可以提出对应的建议,比如产品应该如何改进这个节点。
在你的策略实施后,发现新用户的流失率显著下降,这样就完成了一次完整的数据分析,通过分析改进了业务。
网友评论