通常,我们写一段flink stream api代码类型如下: 熟悉flink的人都知道,最后这行代码env.execute(topics);实...
上一章节我们在org.apache.kafka.clients.producer.internals.RecordAccumulator#app...
上一章节我们重点分析了获取消息的分区号,这样我们才知道消息到底要发送到哪个broker上,对吧,同时我们看到后面把消息封装到一个TopicPar...
上一章节我们详细 分析了Kafka在发送消息的时候,是如何拉取元数据的,正如我们源码里doSend()里waitOnMetadata介绍的: 接...
上一节我们详细解析了生产端在发消息的dosend()里,首先是拉取元数据信息,在拉取过程中,先唤醒了sender线程,接着主线程进入等待状态,直...
上一节我们详细解析了生产端拉取元数据的数据结构,其实也可以看出来,无非就是topic ,partition,node之间的对应关系,同时我们在第...
前面我们讲到,在KafkaProducer初始化时,初始化了一个非常核心的组件Metadata 这个组件前面也详细说明过,是去broker上 ...
上一节我们讲到了在KafkaProducer初始化的时候,初始化了三个组件: 分区器Partitioner 序列化器Serializer 拦截器...
当我们学习Kafka时,通常写kafka producer api如下面简单的代码: 从上面的API可以看到其中一个非常重要的对象: Kafka...