当前位置: 首页>编程语言>正文

flush privileges不能调用 flush volume


文章目录

  • 1.Flume基本概念
  • 2.Flume基础架构
  • 3.Flume的内部原理
  • 4. kafka基本概念
  • 5. kafka架构


1.Flume基本概念

Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传 输的系统。Flume 基于流式架构,灵活简单。

为什么选用Flume

flush privileges不能调用 flush volume,flush privileges不能调用 flush volume_Source,第1张

2.Flume基础架构

flush privileges不能调用 flush volume,flush privileges不能调用 flush volume_数据清洗_02,第2张

  1. Agent
  • Agent 是一个 JVM 进程,它以事件的形式将数据从源头送至目的。
  • Agent 主要有 3 个部分组成,Source、Channel、Sink
  1. Source
    Source 是负责接收数据到 Flume Agent 的组件。Source 组件可以处理各种类型、各种
    格式的日志数据,包括 avro、thrift、exec、jms、spooling directorynetcat、sequence
    generator、syslog、http、legacy。
  2. Sink
  • Sink 不断地轮询 Channel 中的事件且批量地移除它们,并将这些事件批量写入到存储
    或索引系统、或者被发送到另一个 Flume Agent。
  • Sink 组件目的地包括hdfsloggeravro、thrift、ipc、fileHBase、solr、自定
    义。
  1. Channel
  • Channel 是位于 Source 和 Sink 之间的缓冲区。因此,Channel 允许 Source 和 Sink 运作在不同的速率上。Channel 是线程安全的,可以同时处理几个 Source 的写入操作和几个Sink 的读取操作。
  • Flume 自带两种 Channel:Memory ChannelFile Channel 以及 Kafka Channel
  • Memory Channel 是内存中的队列。Memory Channel 在不需要关心数据丢失的情景下适
    用。如果需要关心数据丢失,那么 Memory Channel 就不应该使用,因为程序死亡、机器宕
    机或者重启都会导致数据丢失。
  • File Channel 将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数
    据。
  1. Event
    传输单元,Flume 数据传输的基本单元,以 Event 的形式将数据从源头送至目的地。Event 由HeaderBody两部分组成,Header 用来存放该 event 的一些属性,为 K-V 结构,Body 用来存放该条数据,形式为字节数组。

3.Flume的内部原理

flush privileges不能调用 flush volume,flush privileges不能调用 flush volume_kafka_03,第3张

flush privileges不能调用 flush volume,flush privileges不能调用 flush volume_Source_04,第4张

4. kafka基本概念

Kafka 是一个分布式的基于发布/订阅模式的消息队列(Message Queue),主要应用于
大数据实时处理领域。

5. kafka架构

flush privileges不能调用 flush volume,flush privileges不能调用 flush volume_数据_05,第5张

1)Producer :消息生产者,就是向 kafka broker 发消息的客户端;

2)Consumer :消息消费者,向 kafka broker 取消息的客户端;

3)Consumer Group (CG):消费者组,由多个 consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。

4)Broker :一台 kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个 broker可以容纳多个 topic

5)Topic :可以理解为一个队列,生产者和消费者面向的都是一个 topic;

6)Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列;

7)Replica:副本,为保证集群中的某个节点发生故障时,该节点上的 partition 数据不丢失,且 kafka 仍然能够继续工作,kafka 提供了副本机制,一个 topic 的每个分区都有若干个副本,一个 leader 和若干个 follower

8)leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是 leader。

9)follower:每个分区多个副本中的“从”,实时从 leader 中同步数据,保持和 leader 数据的同步。leader 发生故障时,某个 follower 会成为新的 follower。



https://www.xamrdz.com/lan/5qg1941954.html

相关文章: