电商运营如何做数据分析?

题主所说的漏斗分析是网站分析的特定方法,除此以外,还有路径分析、归因分析和热力图分析等 。
漏斗分析
漏斗分析是网站分析的基本方法,很多强大的工具支持全站页面、事件、目标之间的混合漏斗分析,通过漏斗查看特定目标的完成和流失情况 。根据漏斗的封闭性可分为封闭型漏斗和开放型漏斗 。
封闭型漏斗指漏斗从第一环节开始后最后的环节用户界面关系图用户界面关系图,数据从上一环节开始依次“漏”下来,不存在其他进入途径 。典型的封闭型漏斗是购物车流程 , 通常情况下从加入购物车开始,用户依次进入结算和提交订单 , 由此形成加入购物车→结算→提交订单完整闭环 , 该过程中不可能从其他环节直接进入 。
开放型漏斗指漏斗的各个环节都有可能存在其他入口 , 整个漏斗不封闭 。典型的开放型漏斗是全站购物流程漏斗 , 通常该漏斗是到达着陆页→查看产品页→加入购物车 。在整个过程中,用户查看产品页和加入购物车可能从任何一个具备该功能的入口进入,而不一定是从着陆页开始 。
漏斗分析的典型应用场景是分析站内流程,如注册流程、购物车流程等;除了可以做针对多页面的流程分析外,还可以做单页面的多个步骤分析,如表单分析、注册分析等 。
路径分析
路径分析也是网站分析的基本方法,借助于网站数据的可跟踪和可监测特征,所有用户行为都处于可分析的状态 。路径分析不仅可以基于页面产生,还可以基于目标路径、事件路径等数据主体产生 。
页面路径常用于分析不同页面引流和前后路径关系,如用户从活动页落地后如何分流、典型客户的路径特征、客户网站访问动线、页面广告资源挖掘、站内多页面流程设计优化等 。大多数网站分析系统只能提供基于流量(通常是PV)的单维度路径,有些强大的分析系统或插件能实现三维路径分析 。这些分析可以为站内流程优化、流量引导和分配等提供决策建议 。典型应用包括:
活动主会场/网站主页面如何导流?
用户是否按照“预期”流程行动?
购买“手机的用户”的浏览习惯是怎样的?
渠道A集中访问了某条路径 , 是否是“恶意流量” ?
归因分析
【电商运营如何做数据分析?】归因分析很多时候也叫订单转化归因或归因模型,主要用于评估多个参与转化的主体如何分配贡献大小 。出现归因的基本条件是某些转化没有特定的归属,因此无法直接判断到底是由哪些因素产生 。
以订单转化为例,归因分析用来衡量在用户从第一次进入网站到最后一次进入网站成单时,所有来源渠道对订单的贡献作用 。传统的网站分析工具把订单归因为最后一次来源渠道(在此不考虑渠道覆盖规则),但这种订单归因的分配模式忽视了其他渠道对于该订单的“转化支持”作用 。在实际运营业务中,SEM品牌词流量、直接输入流量、网址导航直接进入网站的流量质量都非常高,原因是用户认知度、认可度和忠诚度比较高 。但如果因此只投放这些“收口”渠道而忽视其他渠道 , 这些“收口”渠道效果是否还能持续?
除了传统的归因于最后进入的渠道的方法外,还有其他的归因方法:归因于最初进入的渠道、线性平均归因、随时间衰减归因、根据位置的综合归因等 。
好了除了上述方法外,就没有其他方法了吗?当然不是,你还有这些方法:
1. 协同过滤
协同过滤(Collaborative Filtering,CF))是利用集体智慧的一个典型方法 , 常被用于分辨特定对象(通常是人)可能感兴趣的项目(项目可能是商品、资讯、书籍、音乐、帖子等),这些感兴趣的内容来源于其他类似人群的兴趣和爱好,然后被作为推荐内容推荐给特定对象 。
协同过滤主要解决的问题是当客户进入某个领域后,什么内容或项目是他/她可能感兴趣的东西,然后以用户的兴趣为出发点推荐他/她可能感兴趣的内容,以此来提高用户体验、用户交互频率提升、订单转化效果、销售利润提升等 。
协同过滤目前主要用于电子商务网站、兴趣部落网站、知识性网站、话题型网站、社交性网站的个性化项目推荐 。协同过滤推荐的场景通常发生在 , 当客户对内容进行打分的前提下,例如内容评分、综合评价等 。
2. 回归
回归是研究自变量x对因变量y影响的一种数据分析方法 。最简单的回归模型是一元线性回归(只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示),可以表示为Y=β0+β1x+ε,其中Y为因变量,x为自变量,β1为影响系数,β0为截距,ε为随机误差 。
回归分析按照自变量的个数分为一元回归模型和多元回归模型;按照影响是否线性分为线性回归和非线性回归 。
回归分析是广泛应用的统计学分析方法,可以用于分析其中一方对另一方的影响关系(通过自变量求因变量),也可以分析自变量对因变量的影响方向(正向影响还是负向影响) 。回归分析的主要应用场景是进行预测和控制,例如计划制定、KPI制定、目标制定等方面,也可以基于预测的数据与实际数据进行比对和分析,确定事件发展程度并给未来行动提供方向性 。
3. 聚类
聚类是数据挖掘和计算中的基本任务,聚类是将大量数据集中具有“相似”特征的数据点划分为统一类别,并最终生成多个类的方法 。聚类分析的基本思想是“物以类聚、人以群分”,因此大量的数据集中必然存在相似的数据点,基于这个假设就可以将数据区分出来,并发现每个数据集(分类)的特征 。
聚类常用于数据探索或挖掘初期,在没有做数据整体分析之前进行的探索性分析 , 适用于样本量较大情况下的数据初步探索 。比如针对企业整体用户特征,在未得到相关知识或经验之前先根据数据本身特点进行用户分群,然后再针对不同群体做进一步分析 。
聚类析能解决的问题类型包括:目前的数据集可以分为几类、每个类别有多少样本量、不同类别中各个变量的强弱关系如何、不同类别的典型特征是什么等;同时 , 基于聚类可以对客户进行细分,在市场研究中的规模测试、机会发掘,以及进行图片压缩等应用 。聚类无法提供明确的行动指向,聚类结果更多是为后期挖掘和分析工作提供参考,无法回答“为什么”和“怎么办”的问题 。
4. 分类
分类算法通过对已知类别训练集的计算和分析,从中发现类别规则,以此预测新数据的类别的一类算法 。分类算法是解决分类问题的方法,是数据挖掘、机器学习和模式识别中一个重要的研究领域 。
分类的主要用途和场景是“预测” , 基于已有的样本预测新的样本的所属类别 。例如,信用评级、风险等级、欺诈预测等;它是模式识别的重要组成部分 , 例如机器翻译,人脸识别、医学诊断手写字符识别、指纹识别等图像识别领域,语音识别领域,视频识别领域等;另外,可以用于知识抽取 , 通过模型找到潜在的规律 , 帮助业务得到可执行的规则 。
5. 关联
关联规则学习通过寻找最能够解释数据变量之间关系的规则,来找出大量多元数据集中有用的关联规则,它是从大量数据中发现多种数据之间关系的一种方法,另外 , 它还可以基于时间序列对多种数据间的关系进行挖掘 。关联分析的典型案例是“啤酒和尿布”的捆绑销售,即买了尿布的用户还会一起买啤酒 。
关联规则相对其他数据挖掘模型简单,易于业务理解和应用 。关联模型的典型应用场景是购物篮分析,通过分析用户同时购买了哪些商品来分析用户购物习惯 。这种策略还会应用于捆绑销售、商品促销设计、页面促销设计、商品陈列设计、商品价格策略和基于购买的用户特征分析等 。网站分析工具Webtrekk中的关联分析报表即应用了关联模型 。
关联模型广泛应用于购物篮分析、网站页面浏览分析、广告流量来源分析、用户关键字搜索分析、网站内容或产品查看分析、生物特征提取、DNA序列破译、自然灾害预测、科学实验分析等 , 回答的问题类似于“发生了A之后,还会发生B还是C?”或者“通常A和B还是和C一起发生”?
6. 时间序列
时间序列是用来研究数据随时间变化趋势而变化的一类算法 , 它是一种常用的回归预测方法 。它的原理是事物的连续性,所谓连续性是指客观事物的发展具有合乎规律的连续性,事物发展是按照它本身固有的规律进行的 。在一定条件下,只要规律赖以发生作用的条件不产生质的变化,则事物的基本发展趋势在未来就还会延续下去 。
时间序列可以解决在只有时间(序列项)而没有其他可控变量下对对未来数据的预测问题,常用于经济预测、股市预测、天气预测等偏宏观或没有可控自变量的场景下 。
7. 异常检测
大多数数据挖掘或数据工作中,异常值都会在数据的预处理过程中被认为是“噪音”而剔除,以避免其对总体数据评估和分析挖掘的影响 。但某些情况下,如果数据工作的目标就是围绕异常值,那么这些异常值会成为数据工作的焦点 。
数据集中的异常数据通常被成为异常点、离群点或孤立点等,典型特征是这些数据的特征或规则与大多数数据不一致,呈现出“异常”的特点,而检测这些数据的方法被称为异常检测 。
异常值检测常用于异常订单识别、风险客户预警、黄牛识别、贷款风险识别、欺诈检测、技术入侵等针对个体的分析场景 。
本文到此结束 , 希望对大家有所帮助!

猜你喜欢