数据清洗夏日的向日葵

数据清洗的结果是对各种脏数据清洗成对应标准的干净的、连续的数据,提供给数据统计、数据挖掘等使用。

1、数据完整性问题

解决思路:数据补全

(1)通过其他信息补全,比如通过身份证号码推算性别、籍贯、出生日期、年龄等

(3)实在补不全的,必须剔除,但是不要删除,说不定以后用得上

2、数据唯一性问题

解决思路:去除重复记录,只保留一条

(1)按照主键去重,用sql或者excel去除重复记录即可

(2)按照规则去重,编写一系列规则,对重复情况负责的数据去重,例如不同渠道来的客户数据,可以通过相同的关键信息进行匹配,合并去重

3、数据权威性问题

解决思路:用最权威那个渠道的数据

对不同渠道设定权威级别,然后再不同场合下选最重要的

4、数据合法性问题

解决思路:设定判定规则

(1)设定强制合法规则,凡事不在规则范围内的,强制设置最大值以及最小值,剔除或者判断为无效

字段类型合法规则:日期字段格式过滤,如将日期字段格式为“2010-10-10”

字段内容合法规则:性别in(男、女、未知));出生日期<=今天

(2)设定警告规则,凡是不在规则范围内的,进行警告然后人工处理,如警告规则:年龄>110

(3)离群值人工特殊处理,使用分箱、聚类、回归等方式发现离群值

5、结局数据一致性问题

解决思路:遍历数据体系

(1)指标体系(度量)

(2)维度(分组、统计口径)

(3)单位

(4)频度

(5)数据

1、解决高纬度问题

解决思路:降维

(1)主成分分析

(2)随机森林

2、解决低纬度或者缺少维度问题

解决思路:抽象

(1)各种汇总、平均、加总、最大、最小等

(2)各种离散化、聚类、自定义分组等

3、解决无关信息和字段冗余问题

解决思路:剔除字段

4、解决多指标数值、单位不同问题

解决思路:归一化

(1)最小-最大

(2)0-均值

(3)小数定标

(一)预处理阶段

预处理阶段主要做两件事情:

一是将数据导入处理工具。通常来说,建议使用数据库,单机跑数搭建MySQL环境即可。如果数据量大(千万级以上),可以使用文本文件存储+Python操作的方式,也可以导入oracle数据库。

(二)第一步:缺失值清洗

缺失值是最常见的数据问题,处理缺失值也有很多方法,我建议按照以下四个步骤进行:

1、确定缺失值范围

对每个字段都计算其缺失值比例,然后按照缺失比例和字段重要性,分别制定策略,可用下图表示:

2、去除不需要的字段

这一步很简单,直接删掉即可……但强烈建议清洗每做一步都备份一下,或者在小规模数据上试验成功再处理全量数据,不然删错了会追悔莫及。

3、填充缺失内容

某些缺失值可以进行填充,方法有以下三种:

前两种方法比较好理解。关于第三种方法,举个最简单的例子:年龄字段缺失,但是有屏蔽后六位的身份证号,从身份证号中截取,处理填充。

4、重新取数

以上,简单的梳理了缺失值清洗的步骤,但其中有一些内容远比我说的复杂,比如填充缺失值。

(三)第二步:格式内容清洗

如果数据是由系统日志而来,那么通常在格式和内容方面,会与元数据的描述一致。而如果数据是由人工收集或用户填写而来,则有很大可能性在格式和内容上存在一些问题,简单来说,格式内容问题有以下几类:

2、内容中有不该存在的字符

某些内容可能只包括一部分字符,比如身份证号是数字+字母,中国人姓名是汉字(赵C这种情况还是少数)。最典型的就是头、尾、中间的空格,也可能出现姓名中存在数字符号、身份证号中出现汉字等问题。这种情况下,需要以半自动校验半人工方式来找出可能存在的问题,并去除不需要的字符。

3、内容与该字段应有内容不符

姓名写了性别,身份证号写了手机号等等,均属这种问题。但该问题特殊性在于:并不能简单的以删除来处理,因为成因有可能是人工填写错误,也有可能是前端没有校验,还有可能是导入数据时部分或全部存在列没有对齐的问题,因此要详细识别问题类型。

格式内容问题是比较细节的问题,但很多分析失误都是栽在这个坑上,比如跨表关联或VLOOKUP失败(多个空格导致工具认为“陈丹奕”和“陈丹奕”不是一个人)、统计值不全(数字里掺个字母当然求和时结果有问题)、模型输出失败或效果不好(数据对错列了,把日期和年龄混了)。因此,请各位务必注意这部分清洗工作,尤其是在处理的数据是人工收集而来,或者你确定产品前端校验设计不太好的时候……

(四)第三步:逻辑错误清洗

这部分的工作是去掉一些使用简单逻辑推理就可以直接发现问题的数据,防止分析结果走偏。主要包含以下几个步骤:

1、去重

有的分析师喜欢把去重放在第一步,但我强烈建议把去重放在格式内容清洗之后,原因已经说过了(多个空格导致工具认为“陈丹奕”和“陈丹奕”不是一个人,去重失败)。而且,并不是所有的重复都能这么简单的去掉……

举例,一家公司叫做“ABC管家有限公司“,在销售A手里,然后销售B为了抢这个客户,在系统里录入一个”ABC官家有限公司“。你看,不仔细看你都看不出两者的区别,而且就算看出来了,你能保证没有”ABC官家有限公司“这种东西的存在么……

当然,如果数据不是人工录入的,那么简单去重即可。

2、去除不合理值

一句话就能说清楚:有人填表时候瞎填,年龄200岁,年收入100000万(估计是没看见”万“字),这种的就要么删掉,要么按缺失值处理。这种值如何发现?提示:可用但不限于箱形图(Box-plot).

3、修正矛盾内容

逻辑错误除了以上列举的情况,还有很多未列举的情况,在实际操作中要酌情处理。另外,这一步骤在之后的数据分析建模过程中有可能重复,因为即使问题很简单,也并非所有问题都能够一次找出,我们能做的是使用工具和方法,尽量减少问题出现的可能性,使分析过程更为高效。

(五)第四步:非需求数据清洗

这一步说起来非常简单:把不要的字段删了。

但实际操作起来,有很多问题,例如:

把看上去不需要但实际上对业务很重要的字段删了;

某个字段觉得有用,但又没想好怎么用,不知道是否该删;

一时看走眼,删错字段了。

前两种情况我给的建议是:如果数据量没有大到不删字段就没办法处理的程度,那么能不删的字段尽量不删。第三种情况,请勤备份数据……

THE END
1.大数据什么是数据清洗?(附应用嘲及解决方案)数据清洗是一个耗时的过程,尤其是在数据量大和数据质量差的情况下,需要投入大量的时间和资源。 通过使用专业的数据处理工具,如FineDataLink,可以有效地解决数据清洗的痛点,提高数据处理的效率和质量。FineDataLink提供了多种可视化算子和功能,如新增计算列、数据过滤、数据关联等,帮助用户快速完成数据清洗和处理,无需编https://blog.csdn.net/oOBubbleX/article/details/140350709
2.19数据清洗知识之数据清洗概述数据清洗的目标17|描述性统计知识之离散程度的测度、数据分布的形状 时长45:57 18|描述性统计知识之相关分析与回归分析实操 时长36:46 19|数据清洗知识之数据清洗概述、数据清洗的目标 时长37:03 20|数据清洗知识之解决数据质量问题 时长41:05 21|数据清洗知识之提高数据易用性 时长55:03 22|数据清洗知识之Python实操演练 https://time.geekbang.org/course/detail/100117306-545493
3.数据清洗处理概述想要在Cocoa /目标-C中连接到SQLite数据库的简单概述 如何使用等效于#region / #endregion(概述)组织XML数据 C#设计转储/概述?类统计数据 相关文章 ETL数据清洗概述 数据预处理-数据清洗 数据清洗-缺失值处理 数据清洗与特征处理 数据清洗(二)---缺失数据处理 数据预处理https://www.pianshen.com/article/2731712359
4.用于产生真实世界证据的真实世界数据指导原则(征求意见稿)一、概述 真实世界证据(RealWorld Evidence,RWE)是药物有效性和安全性评价证据链的重要组成部分,其相关概念和应用参见《真实世界证据支持药物研发与审评的指导原则(试行)》。而真实世界数据(Real World Data, RWD)则是产生RWE的基础,没有高质量的适用的RWD支持,RWE亦无从谈起。 https://www.cn-healthcare.com/articlewm/20200804/content-1135188.html
5.R语言数据清理极客教程在这篇文章中,我们将简要介绍一下数据清洗的应用和它在R编程语言中的实现技术。R语言中 的数据清理数据清洗是将原始数据转化为易于分析的一致数据的过程。它的目的是根据数据以及它们的可靠性来过滤统计报表的内容。此外,它还会影响基于数据的统计报表,并提高你的数据质量和整体生产力。https://geek-docs.com/r-language/r-tutorials/g_data-cleaning-in-r.html
6.大数据应用导论Chapter02大数据的采集与清洗1、Python数据清洗概述 Python是大数据清洗常用的工具之一。除了Python以外还有Trifacta Wrangler 和 OpenRefine两种常用的大数据清洗工具。 Python的Pandas和Sklearn库可进行数据转换等操作 Pandas库:提供数据导入、数据可视化、整合、转换等功能 Sklearn库:提供数据标准化、数据离散化、特征编码等功能 https://blog.51cto.com/14683590/5236225
7.数据集成服务(SSIS)概述腾讯云腾讯云数据库 SQL Server 发布商业智能服务器,提供集数据存储、抽取、转换、装载、可视化分析一体的全套商业智能解决方案,目前已支持 SSIS 数据集成服务。使用 Integration Services 可解决复杂的业务场景,例如合并来自异构数据存储区的数据、数据清洗和数据标准化、填充数据仓库和数据集、处理复杂商业逻辑的数据转换、支持管https://intl.cloud.tencent.com/zh/document/product/238/48060
8.www.ptzfcg.gov.cn/upload/document/20180724/0279275ee54644f69.2投标人应在投标截止时间前按照福建省政府采购网上公开信息系统设定的操作流程将电子投标文件上传至福建省政府采购网上公开信息系统,同时将投标人的CA证书连同密封的纸质投标文件送达招标文件第一章第10条载明的地点,否则投标将被拒绝。 10、开标时间及地点:详见招标公告或更正公告(若有),若不一致,以更正公告(若有)http://www.ptzfcg.gov.cn/upload/document/20180724/0279275ee54644f6adb79e806e1b3734.html
9.ETL设计详解(数据抽取清洗与转换)概述 ETL是BI项目最重要的一个环节,通常情况下ETL会花掉整个项目的1/3的时间,ETL设计的好坏直接关接到BI项目的成败。ETL也是一个长期的过程,只有不断的发现问题并解决问题,才能使ETL运行效率更高,为项目后期开发提供准确的数据。 ETL的设计分三部分:数据抽取、数据的清洗转换、数据的加载。在设计ETL的时候也是从https://www.jianshu.com/p/6b88d125c949
10.《数据采集与清洗》课程教学大纲.docx(支持毕业能力要求5) 四、教学内容、安排及与教学目标的对应关系单元教学内容单元教学目标学时教学方式对应课程教学目标 1 一、技术概述 1.1 大数据采集技术 1.2 数据预处理技术 1.3数据清洗概述? 1.3.1 数据清洗简介 1.3.2 数据标准化 1.3.3 数据仓库简介 (1)能正确阐述大数据处理的一般流程;(2)能准确说明数据https://max.book118.com/html/2022/0226/8016111055004060.shtm