手把手教你用kano模型做需求分析系数

产品经理日常工作中,经常会遇到来自业务方、运营、BOSS、及自己日常体验总结的各种各样的需求,这些需求交付到自己手中时也会伴随着各种各样“有理有据”的原因。

那我们该如何处理这些需求,且对这些需求进行优先级划分,就需要使用一些需求分析方法来解决。

Kano模型就是一个可以帮助我们有效识别“真伪需求”、划分需求优先级的有效工具。

Kano模型是东京理工大学教授狩野纪昭(NoriakiKano)发明的对用户需求分类和优先排序的有用工具,以分析用户需求对用户满意的影响为基础,体现了产品性能和用户满意之间的非线性关系。

一、意义

KANO模型是一个典型的定性分析模型,一般不直接用来测量用户的满意度,常用于识别用户对新功能的接受度。

有助于产品经理了解不同层次的用户需求,主要是通过标准化问卷进行调研,根据调研结果对各因素属性归类,解决需求属性的定位问题,以提高用户满意度。

二、具体内容

根据不同的需求内容与用户的满意度关系,可以将kano模型的内容具体分为五类,此处根据我们产品上常用的话术概况为【五点】。

1.基本型需求——痛点

也称必备型、理所当然的需求,是给用户对服务方提供的基本要求。

基本型需求没有达到时用户会表现的很不满意,但是即便做的再好,用户也不会因此有更多的好感。

2.期望型需求——痒点

期望型需求与用户的满意度成比例关系,即期望型需求满足的越多,用户的满意度越高。

此需求不会像基本型需求那么苛刻,但此需求得不到满足时用户的不满感也不会像基本型需求那样显著增加。

3.魅力型需求——兴奋点

又称兴奋型需求,不会被用户过分期望的需求。随着不断满足用户的兴奋型需求,用户的满意度也会不断的增加,即便表现的不完善,用户的满意程度也是非常高的。

反之用户的期望不满足时,顾客也不会表现出明显的不满意。

4.无差异型需求——无关紧要点

不论提供与否,对用户体验无影响的需求。

5.反向型需求——膈应点

又称逆向型需求,指引起强烈不满的质量特性和导致低水平满意的质量特性,因为并非所有的消费者都有相似的喜好。

许多用户根本都没有此需求,提供后用户满意度反而会下降,而且提供的程度与用户满意程度成反比。

三、使用方法1.明确目标

首先需要明确调研的目的是什么?kano模型是否适用,为什么要用kano模型去解决。

这点就需要再次回顾其意义,这里是帮助解决需求属性的定位问题,属于定性分析,定量分析问题无法用kano模型去处理。

2.设计调查问卷

KANO问卷中每个属性特性都由正向和负向构成,或者说一个问题需要设置正反2个不同的子问题,分别测量用户在面对具备或不具备某项功能所做出的反应。

问卷中的问题一般采用五级选项,按照:喜欢、理应如此、无所谓、勉强接受、我不喜欢,进行评定,因为用户对于一个事情的感知是渐变,不是突变的(描述词语可以根据场景具体定义,但是根据模型内容需要设置五级选项)。

需要注意的是这里的五级并不是跟一一上面模型分级对应,仅仅是针对某一项内容的五种不同的梯度态度,避免在下面数据统计时疑惑。

在问卷设计时,把问卷尽量设计得清晰易懂、语言尽量简单具体,避免语意产生歧义。

同时,可以在在问卷中加入简短且明显的提示或说明,方便用户顺利填答,例如:

3.数据清洗

在收集所有问卷之后,注意清洗掉个别明显胡乱回答的个例,如全部问题都选择“我很喜欢”或“很不喜欢”的,这种回答毫无参考价值。

4.分类整理

将数据清洗过的调查问卷,进行数据汇总,比如某一个用户对于提供【视频通话】功能是喜欢,不提供是无所谓,这个时候这个结果就需要在下面表格中纵向喜欢与横向无所谓中记一票,依次类推进行数据汇总。

5.量化数据,判断属性

上述表格数据整理完成后,将同类型需求进行求和汇总,得出不同类型需求占比,占比最大的属性,即为该功能的属性归属,也决定了该功能的具体地位。

其中需要注意的一点是,这里表格的格式是固定的,就用下面的表格举例,同色或者同字母表示的就是同一类型需求,这也是kano模型实验定义而成,这里不需要做过多的纠结。

6.根据数据确立优先级及判断影响

如果说表格法能清楚的针对某一个需求真伪进行判断,那如果面对多个需求,如何识别需求真伪、判断需求优先级,这个时候则需要引入更具体的数据计算:Better-Worse系数,它更适合面对多需求时如何排定需求优先级。

公式如下:

增加后的满意系数Better/SI=(A+O)/(A+O+M+I)

消除后的不满意系数Worse/DSI=-1*(O+M)/(A+O+M+I)

Batter-Worse表示的是增加或者是消除某一功能对满意度的影响程度。

Better的数值通常为正,表示提供某功能后,用户的满意度会提升。其正值越大,代表用户满意度提升的效果会越强,满意度上升的越快。

worse的数值通常为负,表示不提供某功能后,用户的满意度会降低。其负值越大,代表用户满意度降低的效果会越强,满意度下降的越快。

网上查询关于kano模型的说明,基本上并没有讲解这个系数怎么计算与绘图的,这里我们手把手的说一下。

假设我们现在面临有的需求有5个功能点,在没有使用kano模型之前,我们不知道这些需求是否真的需要去做,以及不知道改优先处理哪一个。

这个时候我们就需要先对这5个功能点进行调研问卷测试。

具体可以参照上文说的调研问卷设计方式。这里需要提一点的是,如果我们给用户调研问卷中问题设置的比较多,避免用户做题批量的话,阵列横向单选。

把问题功能点描述作为行,5级评分作为列,这样会高效一点。回归这个用例:

(1)设计调研问卷;

(2)数据清洗,整理数据,输出对应功能的各个数值:

这里因为系数计算方式中不需要反向属性,所以可以不考虑。

根据上述不同系数计算各个功能的batter和worse值:

计算四象法则原点坐标:

这里的原点不是(0,0),是由上述5个功能中,batter值与worse的绝对值的均值作为原点。

Average(better)=(32%+38%+24%+35%+37%)/5=33%

Average(worse)=(-48%+-61%+-32%+-63%+-25%)/5=-46%

所以坐标原点是(46%,33%)横轴是worse值,纵轴是batter值。

这里散点的放置即为各个功能点的坐标点与坐标原点(46%,33%)想比较,处于什么位置,分布在四象限中即可。

需求优先级排序,从上述的结果中,我们得出:

因此优先级排序上,先处理功能1,其次功能2和4先处理低成本的需求,最后处理功能5,功能3则暂时不需要处理。

综上就是通过batter-worse系数来判断当前需求真伪以及评定优先级的数据方式。

同时我们如果功能的数据量够大,也能通过batter-worse系数绘制成如下的图,来表示各个属性的功能具备与不具备对用户的影响程度。

四、总结

Kano模型其实并不是很复杂,可以简要的用下述流程图概括:

Kano模型可以很好的对需求进行分级,也可以帮助我们将日常面对的零零总总的需求,进行属性归类,定性分析。

明确什么样的需求应该做,什么样的需求应该优先做,什么样的需求不需要花大力气去处理。

最后,关于kano模型中有理解不到位的地方,希望大家批评指正。

本文由@叽里咕噜原创发布于人人都是产品经理,未经许可,禁止转载。

THE END
1.数据清洗的重要性与技巧:提升大数据分析的准确性和效率提升模型性能:在机器学习和数据分析领域,模型的性能在很大程度上依赖于输入数据的质量。数据清洗包括特征选择和特征工程,这些步骤可以帮助模型更好地识别数据中的模式,从而提高模型的预测能力。 节省时间和资源:在数据分析的早期阶段进行数据清洗可以避免在后续阶段进行昂贵的修正。自动化数据清洗流程可以进一步节省时间和资https://blog.csdn.net/Shaidou_Data/article/details/144110971
2.数据清洗总结数据清洗总结 转发数据清洗 数据清洗流程 1 缺失值清洗 1.1 确定缺失值范围 对每个字段都计算其缺失值比例,然后按照缺失比例和字段重要性,分别制定策略,可用下图表示: image.png 1.2 去除不需要的字段 直接删掉,但是务必做好每一步的备份 1.3 填充缺失值(重要,复杂)https://www.jianshu.com/p/4eb95d04a62f
3.总结了pandas实现数据清洗的7种方式以下文章来源于python数据分析之禅,作者小dull鸟 python数据分析之禅. 点击领取pandas高清速查表,后台回复“速查表”获取 最近在做“对比excel,学习pandas系列”,前面发了一篇 很受读者喜爱,今天给大家介绍一下excel和pandas实现数据清洗的种方式 1.处理数据中的空值 https://mp.weixin.qq.com/s?__biz=MjM5NjIwOTQyMA==&mid=2651838178&idx=1&sn=ddda4f225aa4bbd9c38bda50cefc2eb6&chksm=bd17c0818a6049975b3ace3661850a7a73a8f5fdc7d6daafd1653eaaa8181acd071bfa2c3a0e&scene=27
4.感悟与反思┃“数据清洗工作”的总结与反思——席义博虽然数据清洗过程中报错不断,但大家的热情不减,那段时间每天晚上和大家一起处理数据,听大家反馈的问题,然后一起讨论解决,是我每天最期待的事儿,也是我度过最开心的时光,在实践与交流中,我相信大家一定都有各自的收获! 这次数据清洗的任务,其实带动了很大一批同学对于编程的兴趣与冲动,这是个很好的开端,是凝聚大家庭http://www.sxmu.edu.cn/bdcd/info/1097/1393.htm
5.大语言模型系列—预训练数据集及其清洗框架梳理中英文训练数据集。 整理文本清洗框架。 总结现有框架的优点、问题和初步解决方案。 二、预训练数据集 大规模的高质量语料是训练大语言模型的关键“养料”。这些语料提供了世界性的知识体系,能够提升语言模型的理解能力和生成质量,同时也能够支持多样化的应用场景。事实上,高质量的文本对于大语言模型的训练和能力表现https://www.51cto.com/article/778437.html
6.数据清洗随笔分类星涅爱别离数据清洗 随笔分类 -数据清洗 总结与梳理(含之前所涉及的代码和数据) 摘要:一些特别弄混的事: 总体的总结: 数据处理的步骤: 常用的函数 注意点阅读全文 posted @2020-02-06 21:36星涅爱别离阅读(143)评论(0)推荐(0)编辑 数据清洗之数据预处理 重复值 缺失值 异常值 数据离散化https://www.cnblogs.com/xingnie/category/1641806.html
7.玩转逻辑回归之金融评分卡模型消费金融风控联盟总结一下特征分箱的优势: 特征分箱可以有效处理特征中的缺失值和异常值。 特征分箱后,数据和模型会更稳定。 特征分箱可以简化逻辑回归模型,降低模型过拟合的风险,提高模型的泛化能力。 将所有特征统一变换为类别型变量。 分箱后变量才可以使用标准的评分卡格式,即对不同的分段进行评分。 https://www.shangyexinzhi.com/article/5177142.html
8.如何进行数据预处理和清洗?总结 数据预处理和清洗是机器学习和数据分析中非常重要的步骤。通过识别和纠正缺失值、异常值、重复值和错误数据等问题,可以提高数据质量并减 少后续分析的误差和偏差。数据预处理和清洗的流程包括数据收集和选择、数据清洗、数据转换、数据集成和数据规约。在进行数据预处理和清洗时,需要根据实际情况采取不同的处理方法https://www.cda.cn/bigdata/202680.html