数据分析之ELT的基本概念数据库其它

ETL一词较常用在数据仓库,但其对象并不限于数据仓库。

它的主要作用是将企业中分散、非完全结构化、标准不统一的各种数据,整合到一起,形成企业级统一数据仓库,为企业的分析决策提供有质量保证的数据源。

主要包含三大阶段,分别是数据抽取、数据转换、数据加载。

关系型数据库数据高度结构化、数据量不算特别大、数据更新相对频繁、数据质量较高、数据获取比较方便,分为离线与实时

实时抽取,通常的应用场景是对数据的最新状态非常敏感,当有新数据插入或者旧数据更新时,需要及时抽取。

抽取方法有很多,其中常用的一种是基于消费数据库binlog的方式,如阿里开源的canal。

各种日志数据混杂在一起(需要过滤出自己需要的)、数据格式比较多样(格式可能不统一)、数据量相对较大。

对于这类数据,通常的方法就是过滤抽取。抽取方法,可以使用flume监控文件目录,或者使用FileBeat实时监控文件内容变化。

数据量非常大、数据源非常分散、数据质量参差不齐、数据结构化程度高。

针对这种数据,通常的抽取方法,就是专门设计一个数据收集系统来处理收集数据的问题。

ETL的核心环节,也是最复杂的环节。

它的主要目标是将抽取到的各种数据,进行数据的清洗、格式的转换、缺失值填补、剔除重复等操作,最终得到一份格式统一、高度结构化、数据质量高、兼容性好的数据,为后续的分析决策提供可靠的数据支持。

清洗掉脏数据,以免混入正常数据中,造成数据质量下降,引导有偏差的错误决策。

通常的做法有,md5校验、关键字段检查、格式类型一致性检查、无效性检查等。

(1)md5校验通常用于通过公网传输的数据,为防止数据被篡改,需要比对md5值来保证数据的安全性,没能通过md5检验比对的数据将被视为脏数据过滤掉。

(2)关键字段检查,是指在一条数据记录中,非常关键的字段,如果其值不合法,或者类型不对,将被视为非法数据。比如,识别用户行为的字段,其值不在规定取值范围内时,将无法识别具体是做了什么操作,将被视为非法数据清洗掉。

(3)格式类型一致性检查,就是检查一条数据记录的整体格式或者重要字段的类型是否符合规范,如果不符合,同样也是没办法处理,只能作为脏数据处理掉。例如,不合法的日期格式。

(4)无效性检查,通常是比较严格的过滤方法,它主要目的是为了保证数据的高可靠性,通常是事先规定好数据的可信范围,不满足的将被视为不可信的无效数据。

对数据格式做统一化规范化处理,方便后续的分析作业能够更好地使用数据。

一般根据源数据格式和目标格式的不同,会有不同的实现。一般包含记录格式转换和字段格式转换。

记录格式转换,就是最终将一条记录转换成什么格式,例如转成json格式或csv格式。

这一类错误产生的原因是业务系统不够健全,在接收输入后没有进行判断直接写入后台数据库造成的,比如数值数据输成全角数字字符、字符串数据后面有一个回车操作、日期格式不正确、日期越界等。这一类数据也要分类,对于类似于全角字符、数据前后有不可见字符的问题,只能通过写SQL语句的方式找出来,然后要求客户在业务系统修正之后抽取。

日期格式不正确的或者是日期越界的这一类错误会导致ETL运行失败,这一类错误需要去业务系统数据库用SQL的方式挑出来,交给业务主管部门要求限期修正,修正之后再抽取。

针对数据中缺失的空位进行填充,以保证数据类型的一致性或完整性。

例如,对于一个数量类的整数型字段,当其值缺失时,可以考虑填充0。

这里要注意的是缺失值填充要相对谨慎一些才行,因为这个过程相当于是在修改原始数据,一定要确保填充的值对后续的分析不会造成误导性的影响。

防止数据重复上传,造成误判。剔除重复数据,是非常有必要的,也是保证数据质量的前提。

数据清洗是一个反复的过程,不可能在几天内完成,只有不断的发现问题,解决问题。

对于是否过滤,是否修正一般要求客户确认,对于过滤掉的数据,写入Excel文件或者将过滤数据写入数据表,在ETL开发的初期可以每天向业务单位发送过滤数据的邮件,促使他们尽快地修正错误,同时也可以做为将来验证数据的依据。

数据清洗需要注意的是不要将有用的数据过滤掉,对于每个过滤规则认真进行验证,并要用户确认。

把数据加载至目的地,比如数据仓库中。

通常的做法是,将处理好的数据写成特定格式(如parquet、csv等)的文件,然后再把文件挂载到指定的表分区上。

也有些表的数据量很小,不会采用分区表,而是直接生成最终的数据表。

THE END
1.数据清洗流程包括哪些步骤?数据清洗是指对采集的数据进行初步处理,使其符合分析要求和标准,从而提高数据质量和可信度的过程。数据清洗流程包括以下六个步骤: 数据收集 数据收集是数据清洗的第一步,这个步骤是获取数据的初始状态,可以是从数据库、API、爬虫等多种途径获得数据。在这一步骤中需要注意的是,要根据需求选择适当的数据源,并确保数据https://www.cda.cn/bigdata/202779.html
2.数据清洗流程方法与流程未命名1.本发明涉及数据清洗流程方法的技术领域,特别是数据清洗流程方法的技术领域。 背景技术: 2.在厨具制造工业数据集成过程中,面临工业数据复杂多样,数据集成过程中的数据质量难以保障;现有的etl(提取-转换-加载)任务脚本调度方案效率低、核心业务数据更新慢,难以适应厨具制造工业大数据环境下的数据集成需求等问题。 https://www.aerohome.com.cn/hangjiahao/136412.html
3.hadoop清洗数据流程mob649e815bbe69的技术博客在大数据处理中,数据清洗是一个重要的步骤。Hadoop作为一个分布式计算框架,可以帮助我们进行高效的数据清洗。本文将介绍使用Hadoop进行数据清洗的步骤和所需的代码。 流程图 开始文本文件导入HDFSMap阶段Reduce阶段结果输出结束 步骤说明 下面将分步骤介绍如何使用Hadoop清洗数据。 https://blog.51cto.com/u_16175464/7074610
4.数据处理全流程解析(如何进行数据处理)当完成这几步操作后,此时数据就已经脱离APP了,开始往数仓的方向流动,数仓承担着接收数据并最终将数据落地到应用的职责。 02 数据是如何被接收的 数据在到达接入层后会经历解包、解析转换、数据清洗、数据存储四个技术流程。只有经过了这一系列的步骤,数据才能够以规整的形式呈现出来,以供下一个环节的消费。 https://www.niaogebiji.com/article-114218-1.html
5.大数据处理流程中数据清洗工作是在()阶段完成。大数据处理流程中数据清洗工作是在()阶段完成。 "大数据处理流程中数据清洗工作是在()阶段完成。"这道题的答案是什么呢,答案在下文中哦。 大数据处理流程中数据清洗工作是在()阶段完成。 A.数据采集 B.数据预处理和导入 C.数据存储和管理 D.数据分析和挖掘https://www.duote.com/tech/tiku/279635.html
6.视频图像数据治理方法流程是什么?视频数据治理的方法流程: 视频数据治理方法主要分为三种类型,分别是: 通过视频监测数据进行实时监控:可将存储的录像中任意时间点的图像信息提取出来,再结合录像内容及历史信息进行分析、比对,可以对海量视频监控数据进行清洗,获取有效的有用信息,为实现智能分析与预警提供重要支持。 通过视频大数据分析平台实现对海量视频图https://www.goodidea168.com/gddt/37971
7.数据标注实战指南:从入门到精通2. 数据清洗 数据清洗是确保数据质量的关键步骤。包括去除重复数据、处理缺失值、消除噪声等,以提高数据的准确性和一致性。 3. 数据预处理 预处理是将数据转换成适合机器学习算法使用的格式。例如,将文本数据转换成数值数据,将图像数据转换成向量数据等。 4. 数据标注 这是数据标注流程的核心阶段。标注者需根据任务https://developer.baidu.com/article/details/3331095
8.大数据分析的流程有哪些帆软数字化转型知识库大数据分析的流程包括数据收集、数据清洗、数据存储、数据处理、数据分析、数据可视化、结果应用。其中数据清洗是确保分析准确性和可靠性的重要步骤。数据清洗涉及去除数据中的噪声、填补缺失值、处理异常值等操作。这个步骤至关重要,因为脏数据会导致分析结果失真,影响决策的准确性。通过数据清洗,可以提高数据质量,为后续的https://www.fanruan.com/blog/article/77573/
9.数据分析的八个流程8、报告撰写。 1、目标的确定 这一步在工作中通常是由你的客户/上级/其他部门同事/合作方提出来的,但第一次的数据报告中,需要你自己来提出并确定目标。 数据分析的八个流程 企服解答 数据分析的八个流程包括:1、目标的确定;2、数据获取;3、数据清洗;4、数据整理;5、描述分析;6、展现和输出;7、洞察结论;8https://36kr.com/p/1491281074089859
10.大数据应用的开发流程大数据常见处理流程包括:原始数据采集、数据清洗、数据存储、统计分析、存储至数据仓库、数据导出、导入数据库、数据可视化。 图片来源:学堂在线《大数据导论》 一、原始数据采集 原始数据采集的方式包括:爬虫程序采集、应用数据采集。 爬虫程序采集可在互联网中爬取需要的数据。 https://www.elecfans.com/d/2015923.html
11.面向公众版“天地图”的地名地址数据库动态更新方法*收集民政局的门牌及地名数据、工商局的企事业单位登记信息、公安局的地址信息以及其他来源的地名地址信息。以上一期“天地图”地名地址数据库为本底数据并继承其数据结构、要素分类与编码。提取基础地理信息数据库的注记、居民地、道路等图层。按照一定的清洗规则和相关流程把相似重复、不一致、属性缺失的信息进行数据清洗,https://www.fx361.com/page/2022/0424/15802407.shtml
12.RNAseq的分析流程和原理虽然转录组比对相关软件和流程同样层出不穷,但对于基因组信息较为完善的模式物种,推荐使用基因组比对的方式进行分析,具体原因下文的“比对”部分会有说明。我们下面也主要对基因组比对的方法进行介绍。 1. 数据清洗(Data cleaning) Illumina测序仪下机的数据通常为Bcl格式,是将同一个测序通道(Lane)所有样品的数据混杂http://m.yunbios.net/cn/h-nd-1079.html
13.hadoop处理数据的流程是什么问答Hadoop处理数据的流程可以分为以下几个步骤:1. 数据准备:将原始数据加载到Hadoop分布式文件系统(HDFS)中,并根据需要进行数据清洗、转换和预处理。2. 数据切分:将数据切分为适当https://www.yisu.com/ask/81214178.html