一站式实时数据与应用集成平台DataPipeline获数千万人民币A+轮融资,百度风投领投
近日,专注于提供一站式实时数据与应用集成平台和方案的DataPipeline对外宣布已完成数千万元人民币的A +轮融资。本轮融资由BV百度风投领投,经纬中国、清流资本跟投。
领投方BV百度风投表示:随着万物互联时代的临近、即时决策需求迫切程度的加深,实时计算将成为越发重要的计算形式。而基于流计算的DataPipeline数据融合平台恰好能满足实时计算的业务需求。特别是在新零售和工业互联网领域,已经得到标杆客户的认可。此外,在国际开源社区中,DataPipeline正在发挥自身的积极作用。随着对业务场景的深入理解,相信DataPipeline即将释放巨大市场潜力。
成立于2016年3月的DataPipeline,在过去的3年间专注为客户提供一站式数据与应用集成的平台和方案。其核心团队分别来自谷歌、Yelp、亚马逊、IBM、甲骨文、中科院等国内外知名企业,拥有数十年大数据开发和项目经验。
目前,DataPipeline已经成功服务了星巴克、金风科技、龙湖地产、财通证券、叮当快药等大型企业客户,且行业涉及零售、制造、金融、能源、互联网等。同时,DataPipeline已与数十家产业上下游合作伙伴建立了战略合作关系。
大数据时代,随着业务部门和技术部门对于数据认识和需求的不断提升,越来越多的企业开始逐步对存量的数据资产进行消费,并在数据消费过程中引入各种数据集成工具,来解决数据孤岛问题。然而,传统的数据集成模式已渐渐无法满足快速决策以及各种实时查询、实时计算的需求。
面对企业庞大的数据量
传统ETL工具先天不支持分布式架构,无法提供实时和批处理选择。DataPipeline采用分布式的底层框架体系,支持批流一体的数据集成,产品在可扩展性方面比较灵活,可以根据资源的性能消耗情况,灵活地增量水平节点,以应对企业逐年暴涨的大数据量对传统集成系统提出的严峻挑战。
面对企业高人工开发和维护成本
随着业务的开展和渠道的多样化,业务和决策部门对于数据及时性的要求越来越高。传统数据集成工具在数据需求愈加旺盛的现代化企业里面 临:数据开发周期长、维护成本高、数据不及时,异构数据源兼容难等问题。这样不仅增加了企业的开销,也增加了运维难度。
区别于传统数据集成方案,DataPipeline从成立之初就在产品架构、方案设计及操作体验等方面进行了充分的调研和创新,产品和方案都更契合当前中国企业客户的需求。
DataPipeline通过提供批流一体的数据集成、数据质量管理、API数据接入、元数据管理、任务调度以及可视化运维与监控等服务,在减少数据集成、融合开发和运维成本的同时,提高了开发及运维的效率。目前,DataPipeline采用可视化配置界面,无需任何代码5分钟即可创建数据同步任务。
DataPipeline创始人陈诚表示,“如果我们把数据想象成商品,Data Pipeline想通过构建一个智能化无人商店,让客户可以按照自身需求自由选择所需商品。在这个行业里有一句话叫‘Garbage in, garbage out’,如果传递的数据是垃圾,那么产生的数据价值也是垃圾。DataPipeline一直致力于保障数据质量、来源都是可供、可追溯的。”
接下来DataPipeline本轮融资将用来进一步加速提升数据融合平台的硬实力,持续优化提升行业客户服务的软实力,不断加强产品、研发和营销团队,完善客户拓展和客户成功体系。