ASF 官宣:Apache Hudi 正式晋升为顶级项目

Apache 软件基金会( Apache Software Foundation,ASF)于官网发文,正式宣布 Apache Hudi  晋升为 Apache 顶级项目(TLP)。

Apache Hudi(Hadoop Upserts Delete and Incremental)数据湖技术可在 Apache Hadoop 兼容的云存储和分布式文件系统之上进行流处理。该项目最初于 2016 年在 Uber 开发(代号和发音为"Hoodie"),于 2017 年开源,并于 2019 年 1 月提交给 Apache 孵化器。

它的核心功能包括:

  • 可插拔式的索引支持快速 Upsert/Delete。

  • 事务提交 / 回滚数据。

  • 支持捕获 Hudi 表的变更进行流式处理。

  • 支持 Apache Hive、Apache Spark、Apache Impala 和 Presto 查询引擎。

  • 内置数据提取工具,支持 Apache Kafka、Apache Sqoop 和其他常见数据源。

  • 通过管理文件大小,存储布局来优化查询性能。

  • 基于行存快速提取模式,并支持异步压缩成列存格式。

  • 用于审计跟踪的时间轴元数据。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注