如今的互联网与四年前最大的差异在于:流量红利消失殆尽,互联网进入存量时代。
流量时代,获取流量是相对容易的。企业关注的是如何找到更优质的渠道,通过获取大量的流量来快速变现。通过新增、活跃、留存可能就能判断一个产品的好坏,因此基本的统计工具(Umeng、Talking Data 等)就能够满足需求。
存量时代****,产品结构更加多样化,每个产品都需要独一无二的指标来衡量产品是否成功。并且获取流量的成本高,对于企业而言就需要提升流量的转化效率,最大化用户价值。因此,仅考察用户整体的统计数据是不够的,还需要精细化的统计分析用户行为。为了实现这一点,数据统计工具需要支持以下两点特性:
- 更全面的数据模型
- 常用的分析功能
1. 支持更全面的数据模型
传统的页面访问模型(PV Model)只记录了访问事件或者用户,并不能建立事件和用户之间的关系,所以,对于更深入的问题无法给予清晰的解答。例如,我们想了解什么样的用户更容易留存,或者购买卫生纸和 iPhone 7 的用户有什么差别等等,这些问题是页面访问模型无法支持的。
因此,目前大多数精细化的数据统计工具,以事件模型(Event Model)代替了页面访问模型。事件模型能够记录更多的信息,简单来说,事件描述了一个用户在某个时间,在特定环境下,完成了特定的操作。
一个完整的事件包含以下关键因素:
- Who:用户是谁;
- When:什么时间发生;
- Where:用户所处环境,包括地点、使用设备、系统版本 等等;
- What:描述事件的具体内容。通常,描述内容是支持自定义的,比如对于播放 音乐,我们需要了解音乐名、时长、类型等等;对于购买操作,我们可能需要了解金额、付款方式等等。
事件模型能帮助我们在后续的分析中理解事件的含义,建立事件与用户间的关系。
2. 支持常用的分析功能
事件模型仅满足了统计方面的需求,在分析过程中我们还需要一些分析功能的支持:
1)漏斗分析:
帮助分析一系列步骤的转化与流失情况。
例如,用户购买商品的完整流程可能包含以下步骤:
- 浏览商品
- 添加商品到购物车
- 结算购物车中的商品
- 选择送货地址、支付方式
- 点击付款
- 完成付款
漏斗分析能计算每一步的转化率,帮助分析哪个环节的转化率不够高,流失的用户具备什么特征等。
2)用户行为细查:
展示每个用户的具体行为,可以用来挖掘统计数据背后的用户行为。
比如,在购买流程的例子中,发现 浏览商品 - 添加商品到购物车 这一步行为的转化率较低,就可以考察流失用户的具体行为。如果发现用户在连续的浏览商品而没有购买,说明用户可能没有找到满意的商品。或者发现用户在购买页面上常点击某个功能的按钮,而不是购买按钮,说明购买按钮可能不够突出,用户容易转移注意力。
3)用户分组
根据用户的行为特征或者属性对用户进行分组对比,了解不同用户组指标间有差异的原因。一般可以将分组对比运用于漏斗分析、留存分析等场景。
用户分组的一个常用场景是:将导致不同用户组间指标差异的要素复制到目标人群中,来提升目标人群的某些指标。
举个例子:对于社交应用,如果通过分组对比,可能会发现关注熟人更多的新用户留存率高于没有关注的新用户,这样便能推测出添加熟人关系导入功能可能提升留存率。
除了上面提到的特性,以下两点也很关键:
高效,查询快捷,跑一个数据需要1分钟以上都是不能忍的;
便捷,可视化,能在页面点击之间满足90% 的分析需求。
除此之外,一款好的数据统计分析软件还支持中文事件,简化了埋点和运营的难度;企业版提供数据分析师支持,以及自动化的分析模板(比如自动输出版本更新后的数据报告)等。
本文来自火辣健身产品经理汪超骏,公众号「开源思维」