查看原文
其他

常见OLAP分析引擎的对比分析

ruby ruby的数据漫谈
2024-09-27

摘要:数据分析引擎和OLAP引擎是用于处理和分析大规模数据集的工具。数据分析引擎是一个用于处理和分析数据的软件系统。它可以从多个不同的数据源中提取数据,并提供各种功能来处理、转换和分析这些数据。数据分析引擎通常具有强大的查询功能,可以执行复杂的分析操作,如聚合、过滤、连接和排序等。


OLAP(Online Analytical Processing)引擎是一种特殊类型的数据分析引擎,用于处理多维数据。它支持多维数据模型和多维查询,可以进行复杂的数据分析和数据挖掘操作。OLAP引擎通常具有快速的查询性能和强大的可视化和分析功能,可以帮助用户更好地理解和发现数据中的模式和洞察。


常见的OLAP分析引擎有HiveQL、Spark SQL、Trino、Kylin、Impala。在OLAP数据分析领域,开源技术框架非常丰富,每个框架都有其优点和缺点。因此,在进行技术选型时,需要结合实际需求来进行选择。



01

HiveQL

在 Hive 中使用 OLAP(Online Analytical Processing)分析引擎进行查询时,数据通常存储在分布式存储系统中,如 Hadoop Distributed File System(HDFS)或云存储服务(如 Amazon S3)。Hive 通过将数据映射为表的结构,并执行类似 SQL 的查询语言(HiveQL)来进行数据查询和分析。


优点

1. 易于使用: Hive 提供了类似于 SQL 的查询语言,使得用户可以使用熟悉的语法进行数据查询和分析。

2. 扩展性:由于 Hive 是基于 Hadoop 生态系统构建的,可以处理大规模的数据集,具有良好的水平扩展性。

3. 容错性:Hive 具备高可用性和容错性,可以处理节点故障和数据丢失等情况。


缺点

1. 延迟较高:Hive 面向批处理作业,在执行查询之前需要进行数据转换以及映射为 MapReduce 任务,因此对于实时查询不太适用。

2. 存储效率较低:Hive 将数据存储为文本格式,这可能会导致存储效率低下和较大的存储空间占用。

3. 限制性:HiveQL 不支持复杂的事务操作和实时数据操作,不适合处理频繁更新的数据。


数据存储

HiveQL 是 Hive 的查询语言,Hive 是基于 Hadoop 的数据仓库软件项目,用于对存储在分布式存储系统(如 HDFS)中的大数据进行查询和管理。HiveQL 读取的数据通常来自以下几种数据源:


1. Hadoop 分布式文件系统(HDFS):这是 Hive 最常见的数据存储位置,Hive 表通常映射到 HDFS 上的目录。


2. Amazon S3:Hive 可以配置为访问 Amazon S3 存储桶中的数据,特别是当 Hive 运行在 Amazon EMR 或其他云环境中时。


3. 本地文件系统:虽然不是 Hive 的主要设计目的,但 Hive 也可以访问存储在本地文件系统中的数据。


4. HBase:Hive 可以与 HBase 集成,允许通过 HiveQL 查询 HBase 中的非结构化数据。


5. 其他 Hadoop 生态系统组件:例如,Hive 可以与 Apache Hadoop 的其他组件(如 Apache Pig)集成,以访问和处理数据。


6. 外部数据库:Hive 支持通过 JDBC 驱动程序访问外部关系型数据库,如 MySQL、PostgreSQL 等。hive 通过创建外部


7. 数据湖:在现代数据架构中,Hive 常常用于构建数据湖,数据湖可以包含来自多个来源的数据。Hive 支持多种数据格式,如 Avro、ORC、Parquet 等,这些格式的数据可以来自不同的数据源。****


Hive 通过 HiveQL 提供了一种类似于 SQL 的接口,使得用户能够方便地对这些数据源中的数据进行查询、分析和管理。Hive 还支持元数据存储,允许用户定义表结构、索引和视图等,并提供了数据分区和桶划分等功能,以优化查询性能。


 应用场景

HiveQL 通常用来作为批处理的查询引擎,不适合作为OLAP的分析引擎,因为延迟较高,不支持联邦查询,但是可以通过建立外部表的方式访问其它存储的数据。




02

Spark SQL


Spark SQL 作为 OLAP 分析的优势和劣势,以及它的数据存储和联邦查询能力,可以从搜索结果中得到一些信息。


优势

1. 多数据源支持:Spark SQL 能够访问多种数据源,包括 Hive、JSON、Parquet、ORC、JDBC 等[^2^]。

2. 优化的执行计划:Spark SQL 通过 Catalyst 优化器来优化 SQL 查询,提高查询性能。

3. 与 Spark 生态系统集成:作为 Spark 生态系统的一部分,Spark SQL 可以与其他 Spark 模块(如 Spark Streaming、MLlib)无缝集成,提供端到端的大数据处理解决方案。

4. 多语言支持:支持使用 Scala、Java、Python 和 R 等多种编程语言进行开发。

5. 动态分区剪枝:Spark SQL 支持动态分区剪枝,可以提高查询性能。


劣势

1. 内存管理:Spark SQL 在处理大规模数据集时,可能会遇到内存管理问题,导致性能下降或作业失败。

2. 复杂查询优化:对于某些复杂的查询,Spark SQL 的优化器可能不如一些专门的 OLAP 系统高效。

3. 依赖于外部存储:虽然 Spark SQL 本身不存储数据,但它依赖于外部存储系统(如 HDFS、S3 等)来存储计算过程中的中间数据。


数据存储

Spark SQL 它通常读取存储在分布式文件系统(如 HDFS、Amazon S3)中的数据。Spark SQL专注于结构化数据的处理,使用从R和Python(Pandas)借来的dataframe方法。但正如其名所示,Spark SQL还提供了一个SQL2003兼容的接口来查询数据,将Apache Spark的强大功能带给了分析师和开发人员。


除了标准SQL支持之外,Spark SQL还提供了一个标准接口,用于读写其他数据存储,包括JSON、HDFS、Apache Hive、JDBC、Apache ORC和Apache Parquet。其他流行的存储,Apache Cassandra、MongoDB、Apache HBase等等,可以通过从Spark软件包生态系统中分离出独立的连接器来使用。


联邦查询

Spark SQL 支持联邦查询,可以通过配置多个 Catalog 来实现跨数据源的查询。Catalog 是 Spark SQL 中的元数据存储系统,用于管理数据源和表的元数据信息。通过创建多个 Catalog 并将它们注册到 SparkSession 中,可以实现多 Catalog 联邦查询。


请注意,具体的实现细节和性能表现可能会根据 Spark SQL 的版本和配置有所不同。



应用场景

Spark SQL 既可以用于批量处理,也适用于交互式分析。这取决于具体的使用场景和需求。


1. 批量处理:

   - Spark SQL 非常适合进行大规模数据集的批量处理任务。它可以处理存储在分布式文件系统(如 HDFS 或 Amazon S3)中的大量数据。

   - 批量处理通常用于 ETL(提取、转换、加载)操作,数据仓库建设和定期生成报告等场景。

   - 批量处理任务通常是预先安排的,不需要即时响应。


2. 交互式分析:

   - Spark SQL 也支持快速的交互式查询,允许用户实时地探索和分析数据。

   - 交互式分析适用于数据科学家和分析师在探索数据时进行的即席查询,以及需要快速响应的业务决策支持。

   - 交互式分析可以与各种 BI 工具(如 Tableau、PowerBI)集成,提供动态的数据可视化和报告。


但是由于Spark SQL 进行交互式分析时的数据返回速度取决于多个因素,包括数据的大小、查询的复杂性、集群的性能、Spark SQL 的配置以及数据存储的位置等。以下是一些影响数据返回速度的关键因素:


1. 数据规模:处理的数据量越大,查询所需的时间通常越长。


2. 查询复杂性:复杂的 SQL 查询,特别是包含多个连接、子查询或复杂聚合的查询,可能会显著增加查询执行时间。


3. 集群性能:集群的计算资源(如 CPU、内存和存储)对查询性能有直接影响。高性能的硬件和优化的集群配置可以提高查询速度。


4. Spark SQL 配置:Spark SQL 的配置参数,如内存管理、缓存策略和执行计划优化,都会影响查询性能。


5. 数据存储:数据存储的位置和格式也会影响查询速度。例如,数据存储在 SSD 而不是 HDD 上,或者使用列式存储格式(如 Parquet)可以提高读取速度。


6. 数据分区:合理的数据分区可以提高查询性能,因为它允许 Spark 更有效地并行处理数据。


7. 索引和优化:使用索引和优化查询计划可以显著提高查询速度。


8. 缓存:Spark SQL 支持数据缓存,将经常访问的数据缓存到内存中可以减少 I/O 开销,提高查询速度。


9. 并行度:Spark 作业的并行度越高,理论上查询可以更快完成,但这也需要有足够的资源来支持。


在实际应用中,Spark SQL 通过 Catalyst 优化器和 Tungsten 执行引擎提供了高效的查询执行计划,能够实现较快的交互式分析。然而,如果遇到大规模数据集或复杂查询,查询速度可能会受到影响。为了提高交互式分析的性能,可能需要对 Spark SQL 进行调优,包括但不限于优化查询逻辑、调整配置参数、改善数据存储和访问模式等。


总的来说,Spark SQL 在大多数情况下能够提供可接受的交互式分析性能,但在极端情况下可能需要额外的优化工作来确保数据返回速度满足需求。即对于普通小白可以,在数据量少的情况下可以使用Spark SQL作为交互分析的工具,但是对于数据量大,且查询复杂的情况下,数据科学家或者分析师在非常了解Spark SQL的情况下才能比较好的使用Spark SQL 作为交互分析的工具。否则,也会出现返回数据比较慢的情况。




03

Trino


Presto 是一个开源的分布式 SQL 查询引擎,主要用于交互式分析查询,能够处理各种规模的数据。Presto SQL 将名字改为 Trino。除了名字改变了其他都没变。以下是 Presto 作为 OLAP 分析的一些优势和劣势。


优势

1. 多数据源支持:Presto 可以查询包括 Hive、Cassandra、关系型数据库甚至专有数据存储在内的多种数据源。

2. 高性能:Presto 被设计用于快速的分析查询,能够在亚秒到分钟级别内提供响应时间。

3. 联邦查询:Presto 支持跨数据源的级联查询,允许在单个查询中结合来自多个数据源的数据。

4. 易于使用:Presto 使用 ANSI 标准 SQL,并支持超过 30+ 的数据源连接器。

5.内存计算:Presto 是基于内存的并行计算,这有助于提高查询性能。

6. 可伸缩性:Presto 能够在水平方向上扩展,通过添加更多节点来增加处理能力。

7. 实时分析:Presto 允许直接从数据存储中查询数据,无需像 MapReduce 那样进行资源调度和中间结果落盘。


劣势

1. 内存依赖:由于 Presto 是基于内存的计算,因此对内存的需求较高,可能会导致内存相关的性能问题。

2. 资源管理:Presto 需要有效的资源管理和调度,以避免资源争用和过载。

3. 数据新鲜度:Presto 可能不如一些实时数据处理系统那样能够即时反映最新的数据变更。

4. 复杂查询优化:对于某些复杂的查询,Presto 可能需要进一步优化以提高性能。


数据存储

Presto 它通过连接器(Connector)访问各种数据源中的数据。数据可以存储在 Hive、HDFS、Amazon S3、Cassandra、关系型数据库等多种存储系统中。


联邦查询

Presto 支持联邦查询。它允许用户在单个查询中联合多个数据源,进行跨数据源的分析。



综上所述,Presto 作为一个 OLAP 分析工具,提供了多数据源支持、高性能查询、易于使用和可伸缩性等优势,但也存在对内存的高依赖和资源管理方面的挑战。它通过连接器读取存储在不同数据源中的数据,并支持联邦查询以进行跨数据源的分析。


应用场景‍‍‍‍

Presto 作为开源的分布式计算引擎,其主要应用场景包括但不限于以下几点:

1. 加速 Hive 查询:Presto 的执行模型是纯内存 MPP 模型,比 Hive 使用的磁盘 Shuffle 的 MapReduce 模型快至少 5 倍。

2. 大数据分析:在 Hadoop 集群上的大规模数据集上执行交互式查询。

3. 实时数据处理:Presto 性能优越,是实时查询工具上的重要选择,适用于实时报表生成和 BI 工具。

4. Ad-Hoc 查询:数据分析应用中,Presto 根据特定条件的查询返回结果和生成报表。

Presto 的设计目标是提供一个高性能、低延迟的 SQL 查询引擎,适用于交互式分析查询,支持从 GB 到 PB 字节级别的数据量。它的架构由关系型数据库的架构演化而来,适用于大规模数据仓库和数据湖的快速查询。


04

Kylin


Apache Kylin 是一个开源的分布式多维 OLAP 数据仓库,它为超大规模数据集提供了快速的查询能力。以下是 Kylin 作为 OLAP 分析的一些优势、劣势,以及它如何处理数据存储和联邦查询:


优势

1. 预计算能力:Kylin 的核心优势在于其预计算能力,能够提前计算并存储查询结果,从而在查询时提供极快的响应速度。

2. 亚秒级查询响应:Kylin 能够以亚秒级的速度返回对巨大 Hive 表的访问结果,这使得它在大数据市场中迅速占据重要位置。

3. 多维分析:Kylin 提供了多维概念视图,支持上卷(Roll-up)、下钻(Drill-down)和透视分析(Pivot)等操作,适用于决策支持系统、商务智能或数据仓库。

4. 高吞吐量:Kylin 设计用于处理单个查询时需要高吞吐量的情况,能够处理每个服务器每秒高达数十亿行的数据。

5. 存储优化:Kylin 默认的预计算结果配置会存储在 HBase 里,利用字典编码和优化的存储方式。


劣势

1. 资源消耗:Kylin 在构建 Cube 时可能会消耗大量计算资源,对于非常大的数据集,这可能是一个挑战。

2. 数据新鲜度:由于 Kylin 依赖预计算,数据的新鲜度可能不如实时处理系统,特别是在数据频繁更新的场景中。

3. 复杂性管理:随着维度和 Cuboid 数量的增加,管理和优化 Kylin 的 Cube 结构可能变得复杂。

4. 对特定技能的要求:使用 Kylin 可能需要对预计算模型和数据仓库概念有深入的理解。


数据存储

Kylin 读取的数据通常存储在分布式文件系统如 HDFS 中,预计算的结果则存储在 HBase 这类 NoSQL 数据库中。


联邦查询

Kylin 本身不直接支持联邦查询,即它不直接支持跨不同数据库系统的查询。但是,可以通过 Kylin 提供的 REST API、JDBC/ODBC 接口与外部系统进行集成,间接实现跨数据源的查询。此外,Kylin 提供了多数据源支持,可以通过 Data Source SDK 开发适配器来实现从不同数据源同步数据、构建 Cube 以及查询下压的需求。



综上所述,Apache Kylin 作为 OLAP 分析工具,提供了快速的查询响应和强大的多维分析能力,但也存在资源消耗和数据新鲜度等挑战。它将预计算结果存储在 HBase 中,并通过 API 和接口支持与其他系统集成,实现数据的联合分析。


应用场景


Apache Kylin 主要的应用场景包括但不限于以下几个方面:


1. 大规模数据集的 OLAP 分析:Kylin 为超大规模数据集提供高性能的 SQL 查询能力,适用于需要快速响应的多维分析和数据聚合操作。


2. 数据仓库构建:Kylin 从数据仓库中最常用的 Hive 中读取源数据,使用 MapReduce 作为 Cube 构建的引擎,并把预计算结果保存在 HBase 中,对外暴露 Rest API/JDBC/ODBC 的查询接口。


3. OLAP 引擎:在企业中,Kylin 作为固化分析场景引擎,主要负责对有聚合缓存需求的表进行查询加速,特别是报表类产品使用的表。




05

Impala


Impala 是由 Cloudera 公司主导开发的新型查询系统,它提供 SQL 语义,能够查询存储在 Hadoop 的 HDFS 和 HBase 中的 PB 级大数据。Impala 的最大特点是它的快速性,它是一个用于处理存储在 Hadoop 集群中的大量数据的 MPP(大规模并行处理)SQL 查询引擎,是一个用 C++ 和 Java 编写的开源软件。与其他 Hadoop 的 SQL 引擎相比,它提供了高性能和低延迟,提供了访问存储在 Hadoop 分布式文件系统中的数据的最快方法。


Impala 的架构由多个组件组成,包括 Impala Daemon(Impalad)、Impala Statestore、Impala Catalog Service 等。Impalad 是 Impala 的核心进程,运行在所有数据节点上,负责读写数据、接收客户端查询请求,并行执行来自集群中其他节点的查询请求。


总的来说,Impala 是一个高性能、低延迟的 MPP SQL 查询引擎,非常适合用于 Hadoop 生态系统中的实时交互式数据分析。


Impala 本身是一个高性能的 SQL 查询引擎,它被设计用于快速访问存储在 Hadoop 集群中的大量数据,特别是通过 Hive 元数据进行操作的数据。虽然 Impala 支持多维数据模型的查询,但它并不是专门为多维分析(OLAP)设计的系统。多维分析通常涉及到对数据的复杂聚合操作、数据立方体的构建和灵活的数据切片和切块等操作。


然而,Impala 可以用于多维分析的某些方面,尤其是当数据已经被适当地建模为星型模式或雪花模式时,这些模式是数据仓库中常用的多维数据模型。在这种模式下,Impala 可以执行 SQL 查询来分析维度表和事实表,从而支持多维数据分析。Impala 被用作通用的查询引擎,适用于自助数据分析、BI 报表等典型的应用场景。


优势

1. MPP 架构:Impala 采用大规模并行处理(MPP)架构,去中心化,能够充分发挥多服务器的并行处理能力。

2. 查询性能:Impala 支持基于代价的优化(CBO),对 Catalog 进行缓存,具有静态代码生成支持 LLVM、JIT,支持 HDFS 本地读区,减少数据传输开销,以及算子下推和 runtime filter 等技术,提供优秀的查询性能。

3. 友好的 WebUI 界面:Impala 提供了友好的 WebUI 界面,可以查看执行计划、内存使用情况等,并能终止查询语句。

4. 完全兼容 Hive 元数据:Impala 能够完全兼容 Hive 元数据,方便与现有的 Hive 生态系统集成。

5. 社区活跃:作为 Apache 顶级项目,Impala 拥有活跃的社区支持。

6. 支持多种数据格式:Impala 支持多种数据格式如 Parquet 和 ORC 等。

7. 与 Kudu 结合:可以与 Kudu 结合使用,实现实时数仓。


劣势

1. 内存依赖大:Impala 完全在内存中计算,对内存的依赖较大,如果内存不足,可能会出现问题。

2. 分区性能问题:在实践过程中,如果分区超过一定数量(如1万),性能可能会严重下降。

3. 稳定性:Impala 的稳定性可能不如 Hive,因为完全在内存中计算,内存不足时可能出现问题。

4. 对序列化和反序列化的支持有限:Impala 不提供对序列化和反序列化的直接支持。

5. 文件格式限制:Impala 只能读取文本文件,不能读取自定义二进制文件。

6. 数据目录更新:每当 HDFS 中的数据目录有新的记录或文件被添加时,表需要被刷新。


数据存储

Impala 支持内存中数据处理,它访问/分析存储在 Hadoop 数据节点上的数据,而无需数据移动。它为 HDFS 中的数据提供了更快的访问,支持各种文件格式,如 LZO,序列文件,Avro,RCFile 和 Parquet。使用 Impala,您可以使用传统的 SQL 知识以极快的速度处理存储在 HDFS 中的数据。


Impala 与 Hive 共享元数据存储,能够对存储在 HDFS、HBase 以及 S3 上的数据进行快速的交互式 SQL 查询。Impala 在性能上比 Hive 高出 3 到 30 倍,适合于实时交互式 SQL 查询,而 Hive 更适合于长时间的批处理查询分析。


联邦查询

Impala 本身不支持传统的联邦查询,即它不直接支持跨不同数据库系统的查询。但是,Impala 可以通过 JDBC/ODBC 远程访问,并且可以与 Kudu 结合使用,实现对不同数据源的查询。此外,Impala 可以读取存储在 Hadoop 生态系统中的数据,通过 Hive 元数据进行操作,间接实现跨数据源的查询能力。


综上所述,Impala 作为 OLAP 分析工具,提供了高性能的查询能力和良好的用户体验,但也存在对内存的高依赖和一些稳定性方面的挑战。它通常读取存储在 HDFS 中的数据,并通过与其他系统的集成,间接实现跨数据源的查询。但它可以支持一些多维分析的查询需求,特别是在数据已经被适当建模并且查询负载不是极端复杂的情况下。对于需要复杂多维分析的场景,可能需要结合其他工具和平台来实现。

应用场景

Impala 主要应用场景包括:


1. 数据分析:Impala 适用于数据分析场景,特别是需要快速响应时间和高并发查询的场景,如数据探索、报告生成和仪表板展示。


2. 实时数据分析:由于 Impala 的高性能和低延迟特性,它非常适合用于实时数据分析场景。用户可以快速地查询存储在 Hadoop 集群中的大量数据。


3. 数据挖掘和机器学习:Impala 适用于数据挖掘和机器学习场景,支持多种算法和模型的训练和预测。用户可以通过 Impala 快速处理和分析大量数据,提高效率和性能。


4. 交互式分析:Impala 主要指对用户进行多维数据分析,进行数据建构。


总的来说,Impala 主要应用于需要高性能、低延迟 SQL 查询的场景,尤其是在 Hadoop 生态系统中进行大规模数据集的实时分析和交互式查询。



总体分析,HiveQL、Spark SQL  主要用于湖仓一体的跑批引擎,不适合用来作为交互分析,即席分析Kylin 适合用于多维分析、支持上卷(Roll-up)、下钻(Drill-down)和透视分析(Pivot)等操作,适用于决策支持系统、商务智能或数据仓库。但是存在数据新鲜度不够的问题,而Trino和Impala常用来作为湖仓一体的数据分析引擎,他们存在一定的区别,主要的区别如下:


1. 架构和设计:

   - Impala 是为 Hadoop 生态系统设计的,它利用了 Hadoop 的基础设施,如 HDFS 和 YARN,并与 Hive Metastore 紧密集成。

   - Trino(之前称为 Presto)是一个独立的查询引擎,它支持多种数据源,不仅限于 Hadoop 生态系统。Trino 可以查询来自文件系统、关系型数据库、NoSQL 数据库等多种数据源的数据。


2. SQL 支持:

   - Impala 支持大多数 SQL-92 标准构造,但它在 SQL 聚合等方面功能相对较弱,不是完全符合 ANSI SQL 标准。

   - Trino 支持 ANSI SQL,并提供了更丰富的 SQL 功能,包括复杂查询和跨多个数据源的查询。



3. 资源管理:

   - Impala 与 YARN 集成,使用 YARN 进行资源管理和调度。

   - Trino 具有自己的资源管理机制,可以在不同的部署环境中运行,包括 Kubernetes 和 。


4. 扩展性和灵活性:

   - Impala 主要针对 Hadoop 生态系统进行优化,其扩展性和灵活性可能受限于 Hadoop 生态系统。

   - Trino 旨在提供更广泛的数据源支持和更好的扩展性,能够适应不断变化的数据环境。


5、性能:

  - Impala 是一个为 Hadoop 设计的分析型数据库管理系统。 Impala 主要针对 HDFS 和 HBase 中的数据。Impala 在 Hadoop 生态系统中提供了快速的交互式查询能力。

  - Trino 的架构使其能够处理来自各种数据源的数据,rino 的设计使其在处理多种数据源和复杂查询时可能具有更好的性能。



6. 社区和开发:

   - Impala 是作为 Cloudera 产品的一部分开发的,拥有一个相对封闭的社区。

   - Trino 由一个活跃的开源社区支持,该社区致力于不断改进和扩展 Trino 的功能。


7. 维护和支持:

   - Impala 的维护和支持可能与特定的 Hadoop 发行版(如 Cloudera 和 Hortonworks)相关联。

   - Trino 作为开源项目,由社区维护,也可以从商业供应商那里获得支持。


总的来说,Trino 提供了更广泛的数据源支持和更丰富的 SQL 功能,而 Impala 更专注于 Hadoop 生态系统的性能优化。用户在选择时应根据具体的使用场景、数据源和性能需求来决定使用哪一个查询引擎。




欢迎加入【数据行业交流群】社群,长按以下二维码加入专业微信群,商务合作加微信备注商务合作,AIGC应用开发交流入群备注AIGC应用




往期数据平台历史热门文章:

基于DataOps的数据开发治理:实现数据流程的自动化和规范化

数据平台:湖仓一体、流批一体、存算分离的核心问题及原因解析

数据治理体系该怎么建设?

实时数仓&流批一体技术发展趋势

数据仓库、数据中台、大数据平台的关系?

数字化转型如何促进业务的发展

数据中台中的核心概念解析

数据治理中的数据标准的作用?

全面数字化转型:打造全新营销模式

一图展示数据中台的数据流图

揭秘数据治理系统的数据流程图

往期AIGC历史热门文章:

AIGC系列之一-一文理解什么是Embedding嵌入技术

十大AIGC文生视频产品介绍

九大最热门的开源AI Agent框架

AutoGen零代码构建⾃⼰的智能助理


继续滑动看下一个
ruby的数据漫谈
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存