美文网首页
数据分析怎么做?效率更高?

数据分析怎么做?效率更高?

作者: 镖狮网a | 来源:发表于2018-08-01 16:27 被阅读0次

    数据分析分两种一是app端数据分析、二是pc端数据分析,那到底什么样的方法才更有效率

    一、App端数据分析实操指南:

    介绍如何使用GA工具埋点功能,提升App留存率

    (一)点击内容

    用户阅读文章,比如用类似今日头条的一个APP,首先“点击内容”是第一个埋点,我们给用户提供的内容,如果他一个都不看,那也白搭,这是转化的第一步,也是最重要的一个。

    (二)分享

    分享也十分重要,分享意味着拉新。我们做过计算,如果你的内容比较吸引人,每一次分享大概能带来10到20次的点击,通常来说有可能展示量是上百的。这个价值非常大,所以分享也是一个很重要的埋点。

    这是一个真实的的案例,我曾经为一个新闻App做数据分析,发现他们的新闻分享出去之后点击率很高,是获取新用户的好办法。那么如何提升分享率呢?当时我们想到建立一个叫做“转疯了”的频道,里面专门放热门转发的内容。开发完成上线之后,我们利用GA的高级细分功能进行了数据分析。

    带有“转疯了”频道的新版本App比旧版本分享率高,并且在新版本里,进入过该频道的用户分享率高于没进过该频道的。

    点击、分享(还包括H5分享到朋友圈)的埋点数据都是给运营看的,运营会知道哪种类型的内容热门用户愿意点击,进而多做类似的内容,提升点击率和分享率。

    (三)搜索

    搜索是能最直接表达用户需求的。搜索有两种情况,一种是搜完了有结果,那就看用户愿意点什么样的内容;还有是搜索没有结果,这个通常都会单拿出来做一张报告,比如哪一天突然有一个新词出来了,在我们App上没有搜索出结果,那就得马上去补充这个内容,搜索也是一个用户需求的风向标。

    (四)下拉刷新

    下拉刷新的用户习惯应该是今日头条培养出来的,每下拉一下,就推荐一些偏好的内容。

    为什么要统计这个?用户每次下拉刷新都意味着一次推荐内容的展示,下拉刷新之后紧接着有多大的概率用户点击了内容,能体现出推荐算法的优劣,这就和上头埋点那个点击内容连上了。

    这是两个行为之间的比较,一百次下拉刷新只有三次的阅读行为,那显然这个转化率很差。如果一百次下拉刷新能有80次内容点击那转化率就很好。推荐算法做的是不断地提升下拉之后的点击率。

    (五)加载下一页

    PC时代大家是点下一页,现在都是下拉加载下一页,下拉一次加载20条,看完之后再继续往下拉,不断地重复这样做,它同时也体现了用户能接受的信息条数。比如一个用户加载了三次,那就是加载出了60条内容,再加上它本身这一页的20条,可能他就扫过了80条内容。

    做这个埋点的意义在于可以指导运营每天更新多少内容合适。如果运营每天更新两百条,但绝大部分用户在一百条的时候就止步了,那剩下一百条就是浪费。

    (六)推送

    推送是个很重要提升日活的手段。假设公司的编辑习惯在每天三个时间点做推送,突然有天数据分析负责人看见前一天日活有明显的降低,于是按小时对比日活,发现只有三个推送的时间点日活降低了,那显然是推送出了问题。

    推送很重要,它是提升日活一个特别有效的手段。但是我们通过GA的高级细分发现,户时常打开推送直接看完一篇文章就走了,也就是说通过推送开启App的用户粘度明显低于普通用户。我们当然不希望这样的人很多,所以我们会想办法在这个推送打开的这一页里去增加一些延伸阅读,提升推送开启用户的停留时长。

    (七)意见反馈

    目前意见反馈有不少第三方的解决方案,但是我为什么会坚持用GA也发一份数据过来,目的是为了把个人高级细分出来。通过GA可以查看任何一个反馈用户的手机型号、手机系统版本等。之后找和他一样或差不多的机器,看看会不会出现他反馈的那个问题,这样就很容易定位他的问题。

    (八)报错

    最后一个事件是报错。报错跟反馈有点接近,但是遇到错误还能反馈的人毕竟是少数,App程序上知道什么地方出了什么错误,通过系统进行信息收集也是可以细分出来这些报错的用户。

    通常大家上手进行App数据埋点时不知道统计什么,那我刚才说的这八个就是最通用的,按照优先顺序排列。对于初创或中小企业,有这些数据就已经能把分析工作做到至少70分了。

    二、PC端数据分析指标&方法论

    数据分析通用指标有三类,每类我可以再推荐三个最常用的指标。

    第一类指标与流量数量相关。用户数、访问次数、交互数对流量的影响最大,它们是存在层级关系的,同一个人会贡献多次来访,同一个来访也会贡献多次交互点击。

    第二类指标与流量质量相关。一是参与深度,也就是平均访问页数,即用户每次进入网站访问了多少不同的内容。二是跳出率,用户点击一个广告进入网站后什么都没有做的情况就叫做跳出,跳出率考量的是用户是否对你感兴趣,用跳出率做流量评估也比较直接。三是新用户占比,就是说你网站新老用户各占多少。这是引流质量的问题,但具体如何采取行动,取决于你的引流战略是希望更多的新用户加入还是维系老用户。

    第三类指标与价值相关。一是转化率,即用户进入网站后产生交易的几率有多大。二是客单价,它衡量流量价值、衡量用户对你有多大的信任。三是每次来访价值,每一个访客的每一次进站对你来说意味着多少转化,这个可以用历史数据进行推算;反过来,你可以根据这个数据规划你在营销上应该投入多高成本。

    除了上面三类通用指标,还有虚荣指标和行动指标。前者在分析过程中很有用,但它不够去验证生意或驱动运营行动,后者没有固定的套路。如果本着指标精炼的原则,考核中肯定要看行动指标。举一个最简单的例子:比如一个标准的电商网站,网页浏览量——PV是一个通用的衡量网页被用户浏览的量级的指标,早期的网站统计工具也都会用这个指标来衡量网站的流量,但如果只看这个指标,对于后续需要采取什么行动的指导意义其实并不大,因为这个指标可能是很多人每人只看一页,或者是很少人,每人看了多个网页造成的,所以如果将它升级成为能够驱动行动的指标,不妨可以使用每次访问页数,这个代表的含义就是用户每次来访参与的平均深度了,它的升高和降低直接能够对应到网站的运营者需要如何来优化用户体验和内容,如果再将它升级,因为背景是电商网站,所以还可以升级成为商品详情页浏览量占总浏览量比重,这个升级对于电商网站的运营就更能明确方向了,鼓励用户每次来访查看更多的商品详情页,对于网站销售的情况是有非常明显的推动作用的,这其实在大量案例中被验证,这是一个非常良好的驱动行动的指标。

    与移动端相比,PC端具备更完善的研究环境。移动端收集的数据量级、维度、角度都会少一些。作为研究者或理论的关注者,我还是建议把PC端当做一个研究的环境看待。那么PC端数据分析到底怎么做?

    (一)制定规划

    一制定商业目标。对很多企业来说,真正进入数据分析前,商业目标并不是十分明确。在你的商业目标不清晰的情况下,数据收集是没有大方向的,甚至你的企业运营因为商业目标不准确而形成比较大的风险。所以建议根据企业规模、所属行业、发展阶段,提炼出1-3个清晰的商业目标。

    二规划KPI商业目标本身不是一个数据,它不是量化的,而是属于比较概括性的东西。所以它和数据之间需要有“桥梁”的连接,KPI就是这个桥梁。KPI虽然也是数据,但它是非常精炼的,每个部门甚至每个人的KPI可能都不太一样,所以KPI也是需要做一些完整的规划。

    三规划数据指标,即应该采集什么样的数据。企业需要的数据不是你能采集到什么决定的,而是由你需要什么决定的。商业目标对应KPI,来检测你的数据指标,这是我们常用的方法论,能够帮助企业更清楚地把数据体系搭建起来。

    按照这个顺序规划了清晰的数据需求,再开展数据的采集和分析工作,可以避免数据分析方向偏差。

    (二)数据标签化&采集

    首先,数据标签化。数据最常见的问题是数据污染、数据不清晰甚至混乱。造成这些问题的罪魁祸首,可能是数据收集前就没有做到非常清晰的标签化,但用户是需要标签的。只有把前期准备工作做到位,后期才不会陷入数据混合无法拆解,无法做数据细分和聚焦分析的境地。

    第二,选采集工具。不同工具的需求不同,我认为比较常见考量工具有五个角度。

    一是可用性。你的工具是否能满足当前提出的数据需求,或者说能不能满足99%以上的需求。重点在于它是否能支持你的数据采集、实时查看数据、订单数据的完整收集。

    二是易用性。一个非常好的工具,但它解读起来很困难,工作流程非常繁琐,这种情况会降低我们的效率。如果工具不易用就会造成用户对数据的抵触甚至恐惧情绪。

    三是智能性。现在很多工具都加入了人工智能的因素,比如谷歌分析GA中加入了机器算法告诉你哪些用户的质量高哪些用户的质量低。智能性是为网站分析锦上添花的,并不是非常基础的东西,它只是决定了人使用电脑工具效率的高低,并不会关系到工具能不能用。

    四是扩展性。第一项是数据整合,第二项是数据应用的方向。谷歌分析有个其他工具望尘莫及的优势,它很好整合了谷歌所有的营销工具,并且能把数据轻松地推到谷歌营销平台上,对这些用户进行精准的定向营销。

    五是经济性。包括收费方式和收费水平,需要综合收益去考虑投入是否合理,是否在你的接受范围之内。

    现在企业在选择分析工具时通常有个误区,会恰好把这个优先级排序反过来,把经济性作为首要考量因素。一个工具收费一百万,企业首先一个反应就会觉得很贵不想用,但既然它在市场上存在即有它的合理性,应该考虑的是企业该如何驾驭这个工具获取更高的数据价值。

    (三)数据清洗

    在做分析之前,一定要对数据进行一次清洗,我非常建议把这两块数据最大程度上剥离出来:无效和无用的数据。无效的数据就是假的数据,无用的数据是真实的数据,但是对分析没有作用,最典型的是测试数据。

    数据清洗不能做到百分之百可信,最大也是最常见的问题是数据偏差的问题,数据偏差的修正也是数据清洗的一个步骤。很多客户会非常在意数据偏差,因为他们有后台数据,尤其是销售数据和订单数据,当他们在机器里看到的数据和自己的后台数据有10%到20%的偏差,有些用户就会走极端,觉得里面差距那么大,就不相信不参考这个数据了。

    所以作为网站分析师,需要有能力判定数据偏差对分析结论到底会不会造成重大影响,这是数据分析师的基本素质。在分析过程中,我比较建议侧重过程的分析,而不要特别在意结果的对照,因为如果数据偏差是稳定恒定的,那么数据分析的结论就是合理的,跟真实情况不会有太大的差异。

    (四)真正进入数据分析

    准备工作做完之后,才开始真正的数据分析工作。在网站分析方面,我们分析的数据通常会分为四个模块。

    第一个模块叫做用户属性分析。分析你的用户是谁、在什么地方、使用什么样的设备、平时有什么样的兴趣等等,相当于做人物画像。

    第二个模块叫做流量分析。包括流量质量的评估,流量的效果,流量之间的配合效率。

    第三个模块叫做内容分析。针对你网站呈现的内容顺序做一系列分析,来发现用户的行为习惯。

    第四个模块叫产品分析。对于需要体现价值的产品、服务、内容进行分析。

    可能有人按照网站分析工具的惯例会认为应该是做目标分析,但我认为最后一个模块不应该作为一个单独的模块,而应该融入前面的三个模块里面,转化分析实际上对于前边的模块体现的是验证的作用。

    (五)改善行动

    我认为在做改善之前应该再做一步测试,很多分析师会忽略这个环节。比如,得到了一个数据分析结论却没有人采纳。对于一些重大的决策,决策者会用一些比较高的代价去做决策,这个决策也会带来比较大的风险。缩小结论到行动之间的距离,降低决策风险和抵触心理,不妨采用一些测试的方法,比如A/B测试,到底哪个营销策略更有效测试一下就会得出结果,这个测试的代价确实非常小,而且出来的结果立竿见影。真正的数据改善行动唯一要多做的一件事情是,利用数据做追踪,来验证改善的最后成果。

    这五步会形成一个完整的循环,随着企业的运营和深入,会有一些新的需求产生,也会有一些新的问题的排查,会不断进入这个循环中。以上数据分析的方法希望能帮助您,如果您有更好的数据分析达到的效率,欢迎回复哦!

     

     

     

    相关文章

      网友评论

          本文标题:数据分析怎么做?效率更高?

          本文链接:https://www.haomeiwen.com/subject/josrvftx.html