(二)Kafka基本概念简介及常用命令

一、Kafka简介
1.Kafka---A distributed streaming platform
很多企业还是用作消息中间件,其他的消息中间件还有 MQ Redis
2.术语
broker中间环节,是一个kafka进程,作用是数据存储
生产者 producer
消费者 consumer
企业应用:Flume-->Kafka-->Spark Streaming
3.特点:

  1. 发布和订阅(publish and subscribe) Read and write streams of data like a messaging system
  2. 实时app Write scalable stream processing applications that react to events in real-time.
  3. 分布式、副本数、高容错 Store streams of data safely in a distributed, replicated, fault-tolerant cluster.
    4.kafka源代码是用scala编写的
    5.基本概念:
  4. topic: 主题
  5. partitions: 分区 分区下标从0开始,假设3个分区,分区下标分别为-0,-1,-2,体现了高并发读写的特点
[hadoop@hadoop000 kafka-logs]$ ll
total 32
-rw-rw-r--. 1 hadoop hadoop    0 Sep 26 23:51 cleaner-offset-checkpoint
drwxrwxr-x. 2 hadoop hadoop 4096 Sep 26 23:58 huluwa_kafka_streaming-0
drwxrwxr-x. 2 hadoop hadoop 4096 Sep 27 03:10 huluwa_offset-0
-rw-rw-r--. 1 hadoop hadoop   54 Sep 26 23:51 meta.properties
-rw-rw-r--. 1 hadoop hadoop   76 Sep 27 09:13 recovery-point-offset-checkpoint
-rw-rw-r--. 1 hadoop hadoop   77 Sep 27 09:13 replication-offset-checkpoint
drwxrwxr-x. 2 hadoop hadoop 4096 Sep 27 08:54 test-0
drwxrwxr-x. 2 hadoop hadoop 4096 Sep 27 08:54 test-1
drwxrwxr-x. 2 hadoop hadoop 4096 Sep 27 08:54 test-2
[hadoop@hadoop000 kafka-logs]$ cd test-0
[hadoop@hadoop000 test-0]$ ll
total 4
-rw-rw-r--. 1 hadoop hadoop 10485760 Sep 27 08:54 00000000000000000000.index
-rw-rw-r--. 1 hadoop hadoop       70 Sep 27 08:55 00000000000000000000.log
  1. replication-factor:副本因子,指的是每个partition有几个副本,体现了高容错的特点



    假设kafka集群有三台机器,3个partition,3个副本,3个副本分别坐落在三台机器上,此时有一条数据写入机器1的partition-0,那么它的另外两个副本必然是写在机器2的partition-0和机器3的partition-0中,并不是三个副本分别处于partition-0,partition-1和partition-2中
    二、常用命令
    1.创建一个topic

bin/kafka-topics.sh --create \
--zookeeper localhost:2181 \
--replication-factor 1 \
--partitions 3 \
--topic test
集群:--zookeeper computer1:2181,computer2:2181,computer3:2181/kafka

2.查看当前的topic信息

bin/kafka-topics.sh \
--list \
--zookeeper localhost:2181
集群:--zookeeper computer1:2181,computer2:2181,computer3:2181/kafka

3.发送数据 生产者

bin/kafka-console-producer.sh \
--broker-list localhost:9092 \
--topic test
集群:--broker-list computer1:9092, computer2:9092, computer3:9092

4.接收数据 消费者

bin/kafka-console-consumer.sh \
--zookeeper localhost:2181 \
--topic test \
--from-beginning
集群:--zookeeper computer1:2181,computer2:2181,computer3:2181/kafka

发送几条数据测试一下:

[hadoop@hadoop000 kafka]$ bin/kafka-console-producer.sh \
> --broker-list localhost:9092 \
> --topic test
spark
1
2
3
4
5
-------------------------------------------------------------------------------------------------------------
[hadoop@hadoop000 kafka]$ bin/kafka-console-consumer.sh \
> --zookeeper localhost:2181 \
> --topic test \
> --from-beginning
spark
2
1
3
4
5

可以正常发送和接收数据
先把producer和consumer都关掉,再打开consumer,观察到:

[hadoop@hadoop000 kafka]$ bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
spark
3
2
5
1
4

数据的顺序变了,这就是分区有序,全局无序(单个分区内数据有序,全局看是无序的)思考如何保证生产上全局有序
核心点:根据数据的特征设置一个拼装的key,把相同特征的数据比如(mysql里所有处理id=1的数据的语句)发送到同一个topic的1个分区内
hash(key) 取模
5.描述

bin/kafka-topics.sh \
--describe \
--zookeeper localhost:2181 \
--topic test
集群:--zookeeper computer1:2181,computer2:2181,computer3:2181/kafka

在集群环境下:

[hadoop@hadoop000 kafka]$ bin/kafka-topics.sh \
> --describe \
> --zookeeper computer1:2181,computer2:2181,computer3:2181/kafka \
> --topic test
Topic:test      PartitionCount:3        ReplicationFactor:3     Configs:
        Topic: test     Partition: 0    Leader: 1       Replicas: 1,2,3     Isr: 1,2,3
        Topic: test     Partition: 1    Leader: 2       Replicas: 2,3,1     Isr: 2,3,1
        Topic: test     Partition: 2    Leader: 3       Replicas: 3,1,2     Isr: 3,1,2

当id=1的机器挂掉之后:

Topic:test      PartitionCount:3        ReplicationFactor:3     Configs:
        Topic: test     Partition: 0    Leader: 2       Replicas: 1,2,3     Isr: 2,3
        Topic: test     Partition: 1    Leader: 2       Replicas: 2,3,1     Isr: 2,3,1
        Topic: test     Partition: 2    Leader: 3       Replicas: 3,1,2     Isr: 3,1,2

6.更改分区数(用在并发不够,加机器的场景下)

bin/kafka-topics.sh \
--alter \
--zookeeper localhost:2181 \
--topic test \
--partitions 4

添加分区数不会重新分布数据

Topic:test      PartitionCount:4        ReplicationFactor:3     Configs:
        Topic: test     Partition: 0    Leader: 2       Replicas: 1,2,3     Isr: 2,3,1
        Topic: test     Partition: 1    Leader: 2       Replicas: 2,3,1     Isr: 2,3,1
        Topic: test     Partition: 2    Leader: 3       Replicas: 3,1,2     Isr: 3,1,2
        Topic: test     Partition: 3    Leader: 1       Replicas: 1,3,2     Isr: 1,3,2

7.删除
bin/kafka-topics.sh
--delete
--zookeeper localhost:2181
--topic test
集群:--zookeeper computer1:2181,computer2:2181,computer3:2181/kafka

[hadoop@hadoop000 kafka]$ bin/kafka-topics.sh \
> --delete \
> --zookeeper localhost:2181 \
> --topic test
Topic test is marked for deletion.
Note: This will have no impact if delete.topic.enable is not set to true.
[hadoop@hadoop000 kafka]$ bin/kafka-topics.sh \
> --list \
> --zookeeper localhost:2181
huluwa_kafka_streaming
huluwa_offset
test - marked for deletion

如果不在server.properties中添加:delete.topic.enable=true,这条命令其实并不执行删除动作,仅仅是在zookeeper上标记该topic要被删除而已,通过命令标记了test-topic要被删除之后Kafka是怎么执行删除操作的呢?下面介绍一个能彻底删除的方法:

[hadoop@hadoop000 bin]$ ./zkCli.sh
//先删除元数据
[zk: localhost:2181(CONNECTED) 0]  rmr /kafka/admin/delete_topics/test
[zk: localhost:2181(CONNECTED) 0]  rmr /kafka/config/topics/test
[zk: localhost:2181(CONNECTED) 0]  rmr /kafka/brokers/topics/test  
//再删除真实数据
[hadoop@hadoop000 ~]$ cd $KAFKA_HOME
[hadoop@hadoop000 kafka]$ rm -rf logs/test-*  
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,271评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,275评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,151评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,550评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,553评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,559评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,924评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,580评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,826评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,578评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,661评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,363评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,940评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,926评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,156评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,872评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,391评论 2 342

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,580评论 18 139
  • 姓名:周小蓬 16019110037 转载自:http://blog.csdn.net/YChenFeng/art...
    aeytifiw阅读 34,699评论 13 425
  • Kafka入门经典教程-Kafka-about云开发 http://www.aboutyun.com/threa...
    葡萄喃喃呓语阅读 10,798评论 4 54
  • 大致可以通过上述情况进行排除 1.kafka服务器问题 查看日志是否有报错,网络访问问题等。 2. kafka p...
    生活的探路者阅读 7,569评论 0 10
  • 我来到了芜湖,连我都不知道我为什么会来到这里,刚开始的地方是宣城,宣城还是有一定的原因,因为我喜欢“宣城”这样的名...
    穆诺阅读 339评论 0 0