数据分析模型KANO模型

我们在做项目做产品的过程中,经常会接到来自PM/领导/业务方等等的各种需求。有时候哪怕一个小功能、小页面都会争得不可开交。这个时候怎么办呢?到底应该听谁的呢?哪个需求优先级高?哪种呈现方法是更靠谱的呢?

今天我们就来聊聊一个非常实用的需求分级方法——KANO模型。这是一个典型的定性分析模型,一般不直接用来测量用户的满意度,常用于识别用户对新功能的接受度。

在KANO模型中,根据不同类型的需求与用户满意度之间的关系,可将影响用户满意度的因素分为五类:基本型需求、期望型需求、兴奋型需求、无差异需求、反向型需求。

实现思路:通过创建一份调研问卷,收集用户反馈;然后引用这份问卷的数据源创建分析报告,构建图表。

(2)KANO问卷中每个功能都要有正向和反向两个问题,如下图所示:

(3)将设计好的问卷发布,发放给目标用户并邀请填写;

(1)打开本产品的数据源模块,创建一个类型为数据填报的数据连接,然后选择上文创建的表单;

(3)引用上一步发布的数据准备,创建一个名为“kano”的数据模型,清洗、建模工作结束。

进入报告编辑页面,开始创建需要的计算字段。

(1)创建一个名为“合并态度”的计算字段,合并态度=[增加功能态度]+[不增加功能态度];

按照用户对「增加功能态度」与「不增加功能态度」,我们可以通过下表定位某功能对于用户来说是什么需求。

M:基本(必备)型需求;O:期望(意愿)型需求;A:兴奋(魅力)型需求;I:无差异型需求;R:反向(逆向)型需求;Q:可疑结果

(2)上一步已经知道如何定位需求类型,接下来要做的就是在分析表中定位判断,使用“CASE条件函数”创建“类型”字段,如下图所示:

类型=CASE[合并态度]WHEN“非常喜欢非常喜欢”THEN“Q”WHEN“非常喜欢理应如此”THEN“A”WHEN“非常喜欢无所谓”THEN“A”WHEN“非常喜欢勉强接受”THEN“A”WHEN“非常喜欢很不喜欢”THEN“O”WHEN“理应如此非常喜欢”THEN“R”WHEN“理应如此理应如此”THEN“I”WHEN“理应如此无所谓”THEN“I”WHEN“理应如此勉强接受”THEN“I”WHEN“理应如此很不喜欢”THEN“M”WHEN“无所谓非常喜欢”THEN“R”WHEN“无所谓理应如此”THEN“I”WHEN“无所谓无所谓”THEN“I”WHEN“无所谓勉强接受”THEN“I”WHEN“无所谓很不喜欢”THEN“M”WHEN“勉强接受非常喜欢”THEN“R”WHEN“勉强接受理应如此”THEN“I”WHEN“勉强接受无所谓”THEN“I”WHEN“勉强接受勉强接受”THEN“I”WHEN“勉强接受很不喜欢”THEN“M”WHEN“很不喜欢非常喜欢”THEN“R”WHEN“很不喜欢理应如此”THEN“R”WHEN“很不喜欢无所谓”THEN“R”WHEN“很不喜欢勉强接受”THEN“R”WHEN“很不喜欢很不喜欢”THEN“Q”

(1)选择“图表”控件,在画布上画出“图表”;

(2)将字段“增加功能态度”、“不增加功能态度”和“类型”分别拖入yx轴和标签,并设置[快速表计算-总额百分比]得到下表;

(3)对样式稍作调整,完成图表制作。

从上表中不难看出,该项功能在6个维度上均有得分,将相同维度的比例相加后,可得到6个属性维度的占比总和。总和最大的一个属性维度,便是该功能的属性归属。

可看出该项功能属于无差异型需求。即说明有没有这个功能,用户都不怎么在意。

如果您只判断这一个需求,那么进行到这一步就可以到此为止了。如果涉及到多个需求的排序分级,你还需进行计算better-worse系数。

表示某功能可以增加满意或者消除不喜欢的影响程度。

Better,可以解读为增加后的满意系数。Better的数值通常为正,代表如果产品提供某种功能或服务,用户满意度会提升。正值越大/越接近1,则表示用户满意度提升的效果会越强,满意度上升的越快。

better=(A占比+O占比)/(A占比+O占比+M占比+I占比)`

Worse,可以叫做消除后的不满意系数。Worse的数值通常为负,代表产品如果不提供某种功能或服务,用户的满意度会降低。其负值越大/越接近-1,则表示对用户不满意度的影响最大,满意度降低的影响效果越强,下降的越快。

worse=-1*(O占比+M占比)/(A占比+O占比+M占比+I占比)

例如:某产品希望优化10项功能,但是不知道哪些是用户需要的。通过KANO调研分析,可以分别算出10项功能的better-worse系数。根据better-worse系数值,将散点图划分为四个象限以确立需求优先级。如下图所示:

THE END
1.python数据清洗案例keyerror:'sepallengthpython数据清洗案例 获取数据: 检查缺失值 首先第一步,我们先检查一下数据集中是否存在空值,可以用pandas中的isnull、nonull、info方法来检查,我们都来试一遍 data.isnull() 1 可以看到,因为数据太多,没有办法全部找出来,这个时候可以用到sum方法来进行统计每一列有多少个缺失值https://blog.csdn.net/weixin_44941795/article/details/100836001
2.独家为数据分析而清洗数据——Python的21个案例和代码(下)本文介绍了为数据分析而准备的数据清洗的另外11个Python案例及代码。数据清洗是识别和纠正错误以及数据集不一致性的过程,以便于数据可以进行分析。在此过程中,数据专家可以更清楚地了解他们的业务中正在发生的事情,提供任何用户都可以利用的可靠分https://mp.weixin.qq.com/s?__biz=MzI1MjQ2OTQ3Ng==&mid=2247635700&idx=1&sn=c882563ba5a67b47e357af3d16bd1391&chksm=e8117d3d3879282281cabd67a5e3d93be0250a7862942d19801d29b5983732c5b1f81c939238&scene=27
3.数据清洗案例分析袋鼠社区数据清洗案例分析 - 在大数据时代,数据已经成为企业的重要资产。然而,原始数据往往存在许多问题,如缺失值、异常值、重复值等,这些问题会影响数据分析的准确性和可靠性。因此,数据清洗成为了数据处理过程中不可或缺的一步。本文将通过一个实际的数据清洗案例,详细介绍https://www.dtstack.com/bbs/article/12691
4.数据清洗案例数据清洗案例: 1、导入各种包 2、将表格导入系统:这里使用了将一个表格的多个sheet同时导入 # 将一张表里的3个sheet都导入系统 table=[pd.read_excel("/Volumes/台电酷闪/数据分析/python学习/202010Python数据清理/meal_order_detail.xlsx",sheet_name=i) for i in range(0,3)] https://www.jianshu.com/p/84d02414b04e
5.求数据清洗的案例分析资料本人第一次做数据清洗,虽然之前有学过一些数据清洗的方法,但是仍然对手头噪音很大,数量很多的数据感觉到无从下手。现征求各位高手看过的好的关于数据清洗的案例书或其他资料,或者关于如何对大量原始数据一步步分析建模的,要求讲的越具体越好。 谢谢大家帮忙! https://bbs.pinggu.org/jg/huiji_huijiku_3640882_1.html
6.MapReduce综合应用案例—招聘数据清洗MapReduce是Hadoop的核心功能之一,掌握它对学习Hadoop至关重要。 Hadoop Map/Reduce是一个使用简易的软件框架,基于它写出来的应用程序能够运行在由上千个商用机器组成的大型集群上,并以一种可靠容错的方式并行处理上T级别的数据集。 任务关卡 第1关数据清洗 https://hnjdzy.educoder.net/shixuns/2lvmz89x/challenges
7.数据分享基于PythonHadoop零售交易数据的Spark数据处理与E案例数据集是在线零售业务的交易数据,采用Python为编程语言,采用Hadoop存储数据,采用Spark对数据进行处理分析,并使用Echarts做数据可视化。由于案例公司商业模式类似新零售,或者说有向此方向发展利好的趋势,所以本次基于利于公司经营与发展的方向进行数据分析。 https://developer.aliyun.com/article/1493639
8.书单想学PowerBI吗?来看看这些书吧!本书是Power BI 快速入门工具书,笔者将Power BI 的知识点做了系统整理,并以案例的方式呈现出来,使读者学习起来更轻松。全书共7 章,包括Power BI Desktop 初体验、数据清洗的革命、数据统计和呈现、建立表关联、交互式分析、使用DAX 函数、数据可视化等,其中重点介绍了Power BI 在数据清洗和数据可视化方面的应用。 http://www.broadview.com.cn/article/419989
9::侯晓焱邢永杰:我国证人证言排除的刑事司法实务观察1.数据清洗的考量因素 数据整理中误入的不属于当事人申请排除非法证据的数据主要包含几种情况: 一是文书记载了法院告知被告人享有申请回避、非法证据排除等权利,文书故此被命中,但案件本身不涉及非法证据问题的争议。二是文书在评析某项具体证据时,主动宣布该项证据中不存在非法证据排除的情形。三是二审裁判文书中记载http://iolaw.cssn.cn/fxyjdt/201907/t20190722_4936908.shtml
10.聊聊如何清理数据案例和步骤数据清理包括发现和解决潜在的数据不一致或错误以提高数据质量。错误是任何不反映所测量的真实值(例如,实际重量)的值(例如,记录的重量)。在此过程中,审查、分析、检测、修改或删除“脏”数据以使数据集“干净”。数据清理也称为数据清洗。一 为什么数据清理很重要在定量研究中,收集数据并使用统计分析来回答研究问题。http://www.360doc.com/content/23/0301/09/78237952_1069924279.shtml
11.大数据应用导论Chapter02大数据的采集与清洗2、Python清洗案例 # 载入必要库 # numpy是一个数值计算库,能够快速的进行矩阵计算 importnumpyasnp # pandas基于numpy的一种数据分析工具,能够快速的进行数据分析、可视化 importpandasaspd # matplotlib是一个2D绘图库,能够跨平台的快速绘制图表 importmatplotlib.pyplotasplt https://blog.51cto.com/14683590/5236225