数据编辑使用指南

通过FineBI的数据编辑功能,用户可以快速进行数据清洗、多表合并、数据结构调整、数据分析和数据校验等操作,以满足实际业务场景中对数据的处理需求。这些操作能够帮助用户从杂乱无章的数据中整理出有序的、可靠的数据,为后续的分析和决策提供有力支持。

那么我们在实际业务场景中,如何使用FineBl的功能,快速处理数据呢

在数据清洗阶段,可以使用FineBI的数据编辑功能进行以下操作:

通过字段设置,可以选择需要保留或排除的字段,快速调整字段位置、重命名字段,从而快速整理数据。

1)删除多余列

上传数据后,有一些字段不需要参与分析,或者是空白列。点击字段表头,下拉删除列。如下图所示

2)转化字段类型

分析的是时候,会按照字段类型进行分类,用维度衡量指标。需要调整类型不正确的字段。

例如,用户ID、产品编码是维度字段,往往因为都是数字被自动识别为指标,需要修改类型为文本,如下图所示:

3)重命名、翻译字段

将一些不规范的字段名进行重命名。例如将英文字段转化为中文,如下图所示:

利用去重功能,可以快速删除数据集中的重复行,确保数据的唯一性。

FineBI支持删除所有数据的重复行、也支持依据部分字段删除重复行。

例如,订单ID是唯一字段,相同ID只要保留一条。点击表头下拉,发现订单ID存在大量重复值。

则使用「删除重复行」功能处理数据,如下图所示:

null值作为一个必定会遇到的问题,在不同的业务场景下会有截然不同的处理方式。

在数据量巨大的时候,如果null值很少,不会对我们计算总和或平均值造成很大的波动,那我们可以直接忽略。

若有些null值在处理时希望直接作为脏数据整行剔除时,则可以使用表头的快捷过滤迅速的将空值进行排除。

也支持添加「过滤」步骤,筛选非空数据。

例如,下图所示中的数据,这位同学英语成绩为空的原因可能是他本身就因病没参加考试,此时既不能放着不管,也不能直接删去他的这一行数据。

对于这种情况,我们要做的是针对某一类特殊情况打上对应的标签,以便在后续的分析中,有选择地过滤。

在FineBI中,可以用「新增公式列」或者更方便的「条件标签列」来实现。

可以使用新增列,根据业务需求进行自定义计算或添加辅助字段。

根据具体的分析需求,可以使用以下功能对数据结构进行调整和转换。

通过拆分行列的操作,将包含多个字段值的一列(行)拆分为多个列(行),以便更细粒度地进行数据分析。

原始数据字段内容混杂,不利于开展分析。拆分行列并转换后,字段结构简单清晰。如下图所示:

通过行转列的操作,可以将数据集中的多行转换为一行,适用于某些数据透视分析的需求。

例如,将不同的科目从列转为行。如下图所示:

使用「行转列」即可一步到位。如下图所示:

通过列转行的操作,可以将数据集中的多列转换为一列,方便进行一些特定类型的数据操作和分析。

为了方便分析,需要将多个数据表合并到一个数据集中,可以使用以下功能:

通过上下合并功能,将多个数据表按照行的方式进行合并,合并后的数据集包含了原始表格的所有行。合并后表格上下扩展,分析的字段并没有增加,但是行数变多了。

有「学生成绩」的三张Excel表,在数据中,选择「学生成绩-Sheet1」字段,通过「上下合并」添加「学生成绩-Sheet2」字段,完成上下合并其中两张的操作。如下图所示:

根据需求,可以通过新增列的方式从其他数据表中获取数据,并将其添加到当前数据集中,方便进一步分析和计算。

这个功能可以将其他表的指标字段进行聚合后合并(Sumif)或是查询对应的维度匹配到这张表中(Vlookup)。

通过左连接、右连接等操作,将多个数据表按照指定的关联条件融合在一起,形成新的数据集。

FineBI的数据编辑功能还提供了一些数据分析的工具和操作,例如:

通过分组和汇总的操作,可以根据指定的字段将数据集分成不同的组(如相同值一组、自定义分组、日期字段按年;年月分组等),并进行聚合计算,如求和、计数、平均值等。如下图所示:

根据需要,可以通过新增列的操作在数据集中添加自定义计算的列,以便更好地满足业务需求和数据分析要求。

选中字段后,可以在左下角快速获得平均值、总和、记录数等数据,我们可以通过对熟悉的数据进行校验,结合经验来判断是否正确。

利用这一点,我们可以通过过滤出部分关键数据,并取消应用一些疑惑的关键步骤来进行试错。就如同刚学数学时习惯性的多次验算一样,虽然对老玩家略显繁琐,但的确是最令新手放心的定心丸。

通过表头快速过滤出少部分数据进行“抽样检测”。如下图所示:

灵活运用步骤区的小技巧帮助自己快速检查。如下图所示:

右侧步骤区还支持复制粘贴步骤等操作,用户可以自己探索。

可添加的分析步骤如下表所示:

将其他表的字段,根据合并依据分组汇总添加到本表

行转列可将一维表转成二维表

将二维表转换为一维表

鼠标选中内容,快速反馈问题

鼠标选中存在疑惑的内容,即可快速反馈问题,我们将会跟进处理。

THE END
1.大数据什么是数据清洗?(附应用嘲及解决方案)数据清洗是一个耗时的过程,尤其是在数据量大和数据质量差的情况下,需要投入大量的时间和资源。 通过使用专业的数据处理工具,如FineDataLink,可以有效地解决数据清洗的痛点,提高数据处理的效率和质量。FineDataLink提供了多种可视化算子和功能,如新增计算列、数据过滤、数据关联等,帮助用户快速完成数据清洗和处理,无需编https://blog.csdn.net/oOBubbleX/article/details/140350709
2.19数据清洗知识之数据清洗概述数据清洗的目标17|描述性统计知识之离散程度的测度、数据分布的形状 时长45:57 18|描述性统计知识之相关分析与回归分析实操 时长36:46 19|数据清洗知识之数据清洗概述、数据清洗的目标 时长37:03 20|数据清洗知识之解决数据质量问题 时长41:05 21|数据清洗知识之提高数据易用性 时长55:03 22|数据清洗知识之Python实操演练 https://time.geekbang.org/course/detail/100117306-545493
3.数据清洗处理概述想要在Cocoa /目标-C中连接到SQLite数据库的简单概述 如何使用等效于#region / #endregion(概述)组织XML数据 C#设计转储/概述?类统计数据 相关文章 ETL数据清洗概述 数据预处理-数据清洗 数据清洗-缺失值处理 数据清洗与特征处理 数据清洗(二)---缺失数据处理 数据预处理https://www.pianshen.com/article/2731712359
4.用于产生真实世界证据的真实世界数据指导原则(征求意见稿)一、概述 真实世界证据(RealWorld Evidence,RWE)是药物有效性和安全性评价证据链的重要组成部分,其相关概念和应用参见《真实世界证据支持药物研发与审评的指导原则(试行)》。而真实世界数据(Real World Data, RWD)则是产生RWE的基础,没有高质量的适用的RWD支持,RWE亦无从谈起。 https://www.cn-healthcare.com/articlewm/20200804/content-1135188.html
5.R语言数据清理极客教程在这篇文章中,我们将简要介绍一下数据清洗的应用和它在R编程语言中的实现技术。R语言中 的数据清理数据清洗是将原始数据转化为易于分析的一致数据的过程。它的目的是根据数据以及它们的可靠性来过滤统计报表的内容。此外,它还会影响基于数据的统计报表,并提高你的数据质量和整体生产力。https://geek-docs.com/r-language/r-tutorials/g_data-cleaning-in-r.html
6.大数据应用导论Chapter02大数据的采集与清洗1、Python数据清洗概述 Python是大数据清洗常用的工具之一。除了Python以外还有Trifacta Wrangler 和 OpenRefine两种常用的大数据清洗工具。 Python的Pandas和Sklearn库可进行数据转换等操作 Pandas库:提供数据导入、数据可视化、整合、转换等功能 Sklearn库:提供数据标准化、数据离散化、特征编码等功能 https://blog.51cto.com/14683590/5236225
7.数据集成服务(SSIS)概述腾讯云腾讯云数据库 SQL Server 发布商业智能服务器,提供集数据存储、抽取、转换、装载、可视化分析一体的全套商业智能解决方案,目前已支持 SSIS 数据集成服务。使用 Integration Services 可解决复杂的业务场景,例如合并来自异构数据存储区的数据、数据清洗和数据标准化、填充数据仓库和数据集、处理复杂商业逻辑的数据转换、支持管https://intl.cloud.tencent.com/zh/document/product/238/48060
8.www.ptzfcg.gov.cn/upload/document/20180724/0279275ee54644f69.2投标人应在投标截止时间前按照福建省政府采购网上公开信息系统设定的操作流程将电子投标文件上传至福建省政府采购网上公开信息系统,同时将投标人的CA证书连同密封的纸质投标文件送达招标文件第一章第10条载明的地点,否则投标将被拒绝。 10、开标时间及地点:详见招标公告或更正公告(若有),若不一致,以更正公告(若有)http://www.ptzfcg.gov.cn/upload/document/20180724/0279275ee54644f6adb79e806e1b3734.html
9.ETL设计详解(数据抽取清洗与转换)概述 ETL是BI项目最重要的一个环节,通常情况下ETL会花掉整个项目的1/3的时间,ETL设计的好坏直接关接到BI项目的成败。ETL也是一个长期的过程,只有不断的发现问题并解决问题,才能使ETL运行效率更高,为项目后期开发提供准确的数据。 ETL的设计分三部分:数据抽取、数据的清洗转换、数据的加载。在设计ETL的时候也是从https://www.jianshu.com/p/6b88d125c949
10.《数据采集与清洗》课程教学大纲.docx(支持毕业能力要求5) 四、教学内容、安排及与教学目标的对应关系单元教学内容单元教学目标学时教学方式对应课程教学目标 1 一、技术概述 1.1 大数据采集技术 1.2 数据预处理技术 1.3数据清洗概述? 1.3.1 数据清洗简介 1.3.2 数据标准化 1.3.3 数据仓库简介 (1)能正确阐述大数据处理的一般流程;(2)能准确说明数据https://max.book118.com/html/2022/0226/8016111055004060.shtm