哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

哔哩哔哩(以下简称 B 站)的日志采集肩负了 B 站的所有业务的日志收集并传输,提供离线数据和实时数据以满足离线或实时计算以及业务方订阅的需求。 B 站日志收集系统是基于 Flume 设计和搭建而成的。

数据采集是大数据的基石,近几年随着业务的高速增长,产生的数据量越来越大,并且会持续快速增长。因而对采集系统的实时性,稳定性以及可靠性也提出了更高的要求。

本文主要介绍了日志采集系统 Lancer 的整体架构包括各组件设计及优化

B 站原有的大数据采集服务存在的问题包括:

系统支撑能力不足

  • 原生 Flume 坑多,性能较差

  • 异构系统较多,支持比较困难,缺乏统一的协议层标准

  • 早期资源不足的情况下,应用的部署也不是很合理,没有做到应用的物理隔离

  埋点接入混乱

  • 埋点错埋、漏埋、随意埋

  • 数据无保障,易丢失、出现问题难以排查和恢复

  • 缺乏自动化接入流程,业务方接入过程耗时耗力

  • 缺乏一套完整的数据监控体系对数据流链路进行监控

数据覆盖不完全

  • 终端覆盖率不足

  • 业务场景覆盖不够全面

架构

 基于这些问题的存在,我们确立了新数据采集系统的整体设计目标,首先,性能上要做到高吞吐和低延时;其次,质量上要保证数据的安全性和时效性;最后,要做到系统高可用,提供数据灾备,保证数据零丢失。在这样的系统设计目标之下,我们按照如下结构设计了系统:

哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

图一:Lancer系统整体架构

从系统架构中可以看出,该系统主要有两种数据流向,分别是实时流和离线流,前者对应流式埋点数据的上报,数据产生并实时上报至网关层;后者对应批量数据的同步,例如从数据库批量的对数据进行同步操作。   

以实时流数据为例,数据源包括服务端以及客户端,服务端日志可以通过统一上报模块 SDK Tcp/Udp/LogStream( 基于 Tcp 实现的私有协议,可以获得更高的传输效率 ) 进行数据的收集并上报,而客户端通过客户端数据采集 SDK Http(s) 根据不同的网络环境按一定策略将压缩后的数据进行上报。之后由统一的网关层 Lancer-Gateway 接收上报的数据,并写入到数据缓冲层( Kafka ),最后由数据分发层将数据从数据缓冲层中拉取,将数据写入到数据存储层(包括 HDFS HIVE ES HBASE 等),提供给后续的数据仓库、实时计算或者其他业务部门自订阅和消费。

离线流基于 Sqoop ,实现了数据库数据的批量同步功能,并支持分发到不同终端的功能,关于离线流的讨论本文不做展开。

基于 Flume 的数据网关层和分发层的实现方案

 Flume 是由 Cloudera 软件公司产出的可分布式日志收集系统,后于 2009 年被捐赠了 apache 软件基金会,现已成为 apache top 项目之一。它是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。支持在日志系统中定制各类数据发送方,用于收集数据;同时, Flume 提供对数据进行简单处理,并写到各种数据接受方 ( 比如文本、 HDFS Hbase kafka ) 的能力

Flume agent 为最小的独立运行单位,单 agent Source Channel Sink 三大组件组成,而 Event 作为数据在 Flume 中传递的单位。

  哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

图二:原生Flume数据流

Flume 的数据流由事件 (Event) 贯穿始终。 Event Flume 的基本数据单位,它携带日志数据 ( 字节数组形式 ) 并且携带有 header 头信息,这些 Event Agent 外部的 Source 生成,当 Source 捕获事件后会进行特定的格式化,然后 Source 会把事件推入 ( 单个或多个 )Channel 中。可以把 Channel 看作是一个缓冲区,它将保存事件直到 Sink 处理完该事件。 Sink 负责持久化日志或者把事件推向另一个 Source

1   网关层  — Lancer-Gateway  系统架构  

哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

图三:网关层Lancer-Gateway系统设计

网关层 Lancer-Gateway 提供了 LogStreamSource SysLogUdpSource SysLogTcpSource NetSource 等,可以接收不同协议层的数据上报。

Socket 模型利用了 Reactor 主从 NIO 线程模型:

  1. 从主线程池中随机选择一个 Reactor 线程作为 Acceptor 线程,用于绑定监听端口,接收客户端连接;
  2. Acceptor 线程接收客户端连接请求之后创建新的 SocketChannel ,将其注册到主线程池的其它 Reactor 线程上,由其负责接入认证,握手等操作;
  3. 步骤 2 完成之后,业务层的链路正式建立,将 SocketChannel 从主线程池的 Reactor 线程的多路复用器上摘除,重新注册到 Sub 线程池的线程上,用于处理 I/O 的读写操作。
  4. 在每个 Sub 线程上配置私有线程池,并发地执行数据的编解码操作并写入到 Channel 中,由后续的 KafkaSink 将数据写入到数据缓冲层( Kafka )中

针对实践过程中实现的优化点:

  1.   flume1.7 中使用的 netty3 升级为 netty4  netty4 相较于 netty3 优化了线程模型,提出了串行化设计理念,而线程模型在很大程度上决定了框架的性能 , netty4 新特性可以参看http://netty.io/wiki/new-and-noteworthy-in-4.0.html#wiki-h2-34
  2. 提供了对私用协议 LogStream 的支持,协议的选择不同,性能模型也不同。相比于公有协议,内部私有协议的性能通常可以被设计的更优。  LogStream 基于 Tcp 实现,减少了不必要的数据传输,定义的格式更利于内部处理。

PS :该系统中使用 kafka 作为数据缓冲层,而没有直接对采集的数据进行处理和写入数据持久层的原因在于考虑到数据分发端可能存在写入瓶颈问题及消费端消费能力不足而导致数据将 Channel 阻塞,最终影响整条数据链路的数据传输。将数据线缓存在中间 Kafka 中,数据会被持久化,保证了异常情况下数据的不丢失,同时 kafka 中的消息采用 pull 机制而不是 push 机制,使系统分发端可以根据消费能力去拉取数据进行处理,不至于拉取过多数据无法处理,造成 Channel 阻塞,并发生处理异常。

2   分发层  — Lancer-Collector  系统架构

哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

图四:分发层Lacner-Collector系统设计

同样是基于 Flume 的一个 Agent 设计,包含了 KafkaSource ,用于从数据缓冲层拉取数据,根据分发端的不同写入到不同的 Channel 中,每个 Channel 挂靠一个 Sink ,用于执行不同数据分发端的数据写入

针对实践过程中实现的优化点:

1.  不同业务的数据对于分发端来说属于不同的事件,需要执行不同的处理逻辑,以及根据分发端的不同写入不同的分发端中,考虑到不同的数据持久层(包括 HDFS KAFKA MYSQL 等)写入性能并不一致,使用相同的流式处理会产生木桶效应,系统整体取决于数据写入最慢的分发端链路,所以需要根据分发端的不同实现物理上的隔离。  

解决方法:在网关层 Lancer-Gateway 判断该事件的分发端类型,使用单独的 kafka topic 写入到 kafka 缓冲层,在不同的物理器上部署分发层 Lancer-Collector ,订阅单独的 kafka topic 进行消费,分发至对应的数据持久层。

2.  不同埋点数据其数据量不同,有时会相差很大,由于我们采用的是多 Channel 的数据分发策略,如果塞入到某个 Channel 的数据量比较大,会导致对应的 Sink 率先达到 Hdfs Flush 阈值,而会造成整体的数据 Flush 操作,过多的 Flush 操作会导致性能的下降。

解决方法:针对 Channel 做负载均衡操作,将事件尽量均匀的投放到每个 Channel 中,同时检测 Channel 中的水位,实时调整将数据写入到相对空闲的 Channel 中;调大 MemoryChannel capacity ,尽量利用 MemoryChannel 快速的处理能力;调大 HdfsSink batchSize ,增加吞吐量,减少 hdfs flush 次数;

数据可靠性保证

  1. 利用了 GoAgent SDK 进行数据上报,数据会被先持久化在本地,如果上报网络异常,数据不会丢失
  2. 数据缓冲层使用 Kafka 保证了分发端异常情况下数据不丢失
  3. 利用 Flume 对数据可靠性的支持,保证了数据在 Agent 传输中的数据不丢失

1.  首先由一个 Channel Queue 用于存储整个 Channel Event 数据;

2.  每个事务都有一个 Take Queue Put Queue 分别用于存储事务相关的取数据和放数据,等事务提交时才完全同步到 Channel Queue ,或者失败把取数据回滚到 Channel Queue MemoryChannel 设计时考虑了两个容量: Channel Queue 容量和事务容量,而这两个容量涉及到了数量容量和字节数容量。另外因为多个事务要操作 Channel Queue ,还要考虑 Channel Queue 的动态扩容问题,因此 MemoryChannel 使用了锁来实现,而容量问题则使用了信号量来实现。

哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

图五:Flume Channel的事务性保证

哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

图六:Agent中的数据交换

数据质量性保证

  1. 没有监控,一切优化都是空谈。实现了单独监控系统,提供了细粒度的监控指标,对数据传输的各个环节进行监控,例如对丢失率、延时率、数据采集量及字节数、模块处理耗时等进行可视化监控
  2. 全方位的告警机制,数据链路异常会及时通过告警通知相应负责开发同学,快速响应
  3. 每日统计各类业务数据的日量级和条数,以及产出同比环比报告,方便观察每日线上业务埋点数据情况
  4. 数据上报样例查看,方便接入的业务方查看自己数据上报格式和数据是否正确

  哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

图八:数据上报实时监控

  哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

图九:数据同环比监控

监控模块整体架构如下:  

哔哩哔哩大数据采集服务—Lancer系统设计与实践-36大数据

图十:Lancer监控模块整体架构

关于具体监控模块的具体设计,不在本文的讨论之中,之后会专门介绍。

未来发展

截止目前, Lancer 系统提供了一个高可用,高可靠,可扩展的分布式服务,接入了超过 200 类数据采集任务,每天处理各类数据超过 400 亿条,数据量级在 20T 以上,每秒 300W 条的处理速度,有效地支持了 B 站的日志数据收集和分发工作。

 后续,我们将在如下方面继续研究:

系统的优化:随着业务的不断增长,对系统的要求会越来越高,有更多优化的空间需要去完善;

日志管理系统:对日志收集系统 Lancer 提供图形化的展示和控制,方便管理和配置;

拥抱开源:专注数据集成问题方案的思考和解决

End.

转载请注明来自36大数据(36dsj.com): 36大数据 » 哔哩哔哩大数据采集服务—Lancer系统设计与实践

随意打赏

freelancer
提交建议
微信扫一扫,分享给好友吧。