MatrixOne 支持多样化生态工具,持续提升开发者体验
近日,云原生数据库 MatrixOne 发布多样化生态工具,包括:数据集成工具、BI 工具和数据计算引擎这三类生态工具。
1 数据集成工具
数据集成工具可将来自不同数据源的数据整合为统一的数据集,通常具备从不同数据源中收集数据、对数据进行清洗、转换、重构和整合的能力,以便能够在一个统一的数据仓库或数据湖中进行存储和管理。
与数据集成工具的适配,可帮助数据开发者更丝滑高效的进行初期存量数据的迁移,以及后续日常的 ETL 作业,极大的保障工作效率和业务的稳定性。
MatrixOne 在征集社区建议后,本轮优先对 DataX 与 SeaTunnel 进行了适配。得益于对 MySQL 协议的高度兼容,经过本轮适配,我们在 DataX 或 SeaTunnel 中可以直接使用 MySQL 所对应的 Writer 或 Driver 来对 MatrixOne 进行连接访问。
2 BI 工具
BI 即指 商业 智能(Business Intelligence),指用现代数据仓库技术、线上分析处理技术、数据挖掘和数据展现技术进行数据分析以实现商业价值。例如数据分析师会使用 BI 工具,基于海量的散乱数据进行数据分析,最终产出清晰的、可用于支持决策的数据报表。
BI 工具所用的数据通常存储在数据库中,由于不同数据库之间语法存在不同程度的差异,需要 BI 厂商与数据库厂商进行兼容性互认、并针对性的开发出对应的连接器。
MatrixOne 本次针对 Superset、FineBI 和永洪 BI 进行了首轮的适配,当我们在使用上述 BI 工具连接 MatrixOne 时,可以直接选择 MySQL 连接器,将 MatrixOne 视为 MySQL 进行连接访问,来对用户的数据可视化场景提供有效支撑。
BI 的适配工作无法做到“一步到位”,MatrixOne 当前先基于 MySQL 语法兼容性来实现与 BI 的高度兼容,随着 MatrixOne 新版本个性化能力的不断扩展,MatrixOne 团队也会积极推进和 BI 厂商的互认,来协同开发出兼容性更优的专用连接器。
3 数据计算引擎
大数据计算引擎主要用于对数据的加工、清洗、计算或迁移导入,常用的计算引擎例如:MapReduce、Storm、Spark、Flink 等。其中,Spark 和 Flink 作为目前主流的批量/流式计算引擎,MatrixOne 进行了细节的测试和适配。
MatrixOne 规划中的“流引擎”能力在持续完善中,在适配 Spark/Flink 引擎后,开发者可以直接使用通用 JDBC 驱动,在 Spark 或 Flink 中通过外部算力进行大数据量级的数据清洗,再或着,通过 Flink 实现更灵活的“流式数据源”的数据接入。例如,MatrixOne 1.0 版本原生实现了与 Kafka 中数据源的连接。
MatrixOne 为大数据开发者提供了多样化生态工具,从数据收集、数据展示与计算三个层面帮助开发者更好的使用云原生数据库。
随着 MatrixOne 新版本个性化能力的不断扩展,MatrixOne 团队也会积极推进和数据生态上下游厂商的互认,来协同开发出兼容性更优的专用连接器,持续提升数据开发者体验。