龙空技术网

0370-如何实现Kafka的Partition重分配

Hadoop实操 377

前言:

现时朋友们对“vim 格式化json”大致比较重视,咱们都想要学习一些“vim 格式化json”的相关资讯。那么小编在网摘上收集了一些对于“vim 格式化json””的相关文章,希望看官们能喜欢,看官们快快来学习一下吧!

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

Fayson的github:

提示:代码块部分可以左右滑动查看噢

1.文档编写目的

在Kafka集群资源使用已超出系统配置的资源时,需要通过扩容Kafka节点来实现Kafka集群的资源扩容。新增的Kafka节点,只有在创建新的Topic才会参与工作,对于之前其它Broker节点上的分区是不会自动均衡的,不能达到负载的效果。这时需要在Broker之间重新分配分区,本篇文章Fayson主要介绍如何重新分配Topic的partition。

内容概述

1.环境准备及说明

2.重新分配Partition及验证

3.总结

测试环境

1.CM和CDH版本为5.15

2.Kafka版本为0.10.2+kafka2.2.0

2.环境准备及说明

1.现集群Kafka节点数量为3个

2.在Kafka集群中创建一个测试的Topic,命令如下

kafka-topics --create --zookeeper cdh01.fayson.com:2181 --replication-factor 2 --partitions 4 --topic test_partition

(可左右滑动)

该Topic为2个副本共4个Partition,通过Kafka命令查看该Topic的详细信息

kafka-topics --zookeeper cdh01.fayson.com:2181 --describe --topic test_partition

(可左右滑动)

可以看到test_partition的4个Partition分布在三个Broker上。

3.向测试test_partition生产部分测试数据

测试脚本可以在Fayson的Github上下载。

(可左右滑动)

4.为Kafka集群扩容一个新的Broker(通过CM添加一个Kafka角色并启动即可)

在Kafka的配置界面搜索“broker.id”,查看Kafka所有节点的BrokerID,在后面的Partition重新分配时会用到

5.使用Kafka命令查看Topic的详细描述,可以看到Kafka的Partition仍然分配在之前的三个Broker上并未因为新增Broker而进行自动均衡

6.创建一个新的Topic,查看Partition的分布情况

可以看到新创建的Topic,相应的Partition会分布在新的Broker节点上,对于之前的Topic的Partition不会自动均衡到新的节点上,因此之前Topic的压力还在旧的节点上,接下来Fayson会说明如何使用Kafka命令重新分配Kafka的Partition。

3.重新分配Partition

以我们上面创建的test_partition为例来说明,如何重新分配该Topic的Partition。

1.在重新分配Partition前登录新扩容的Broker节点查看数据目录

可以看到没有关于test_partition Topic的分区目录。

2.创建一个待重新分配的Topic的JSON文件,内容如下

[root@cdh01 kafka_partition_reassignment]# vim topics-to-move.json{ "topics": [{ "topic": "test_partition" }], "version": 1}

(可左右滑动)

这里也可以同时为多个Topic进行重新分配,在json文件中添加多个topic即可。

3.使用kafka-reassign-partitions命令生成一个分配计划,下面的命令行中broker-list参数即对应上面的BrokerID

kafka-reassign-partitions --zookeeper cdh01.fayson.com:2181 \ --topics-to-move-json-file topics-to-move.json \ --broker-list "110,111,109,190" \ --generate

(可左右滑动)

可以看到在命令行生成的Partition重分配的计划(这里还没有真正的去分配,只是生成了分配计划),在截图中也很清楚的标出了分配前和分配后的结果,注意这里我们需要使用到分配计划生成的结果(即重新分配后Partition的JSON字符串)。

4.将分配计划的第二个JSON保存至reassignment.json文件中

[root@cdh01 kafka_partition_reassignment]# vim reassignment.json {"version":1,"partitions":[{"topic":"test_partition","partition":1,"replicas":[109,111]},{"topic":"test_partition","partition":0,"replicas":[190,110]},{"topic":"test_partition","partition":3,"replicas":[111,109]},{"topic":"test_partition","partition":2,"replicas":[110,190]}]}

(可左右滑动)

5.运行kafka-reassign-partition命令根据上述执行计划生成的结果进行分配,命令如下:

kafka-reassign-partitions \ --zookeeper cdh01.fayson.com:2181 \ --reassignment-json-file reassignment.json \ --execute

(可左右滑动)

6.对于数据量比较大的Topic运行重新分配会比较耗时,这时可以通过如下命令查看Topic的重分配情况,命令如下:

kafka-reassign-partitions \ --zookeeper cdh01.fayson.com:2181 \ --reassignment-json-file reassignment.json \ --execute

(可左右滑动)

通过该命令可以看到每个Partition的分配进度。

4.验证Partition分配情况

可以通过kafka-topics命令查看指定Topic的描述信息,操作如下:

1.在命令行执行如下命令,查看Topic的描述信息

kafka-topics --zookeeper cdh01.fayson.com:2181 --describe --topic test_partition

(可左右滑动)

上图可以看到Topic的Partition0和2已经重新分配到ID为190的Broker节点上了,该节点为新扩容节点。

2.登录该节点查看Kafka的数据目录

可以看到新增的Broker节点上,跟分配计划一致,将test_partition0和2的数据移动至该节点(包括Partition的数据)。

5.总结

1.在进行Kafka集群扩容后,需要考虑为原有的Topic分区进行重新分配,否则新增节点是不会负载扩容前已存在的Topic。

2.重新分配的命令中broker-list参数可以指定多个BrokerID(注意这里是ID而不是Broker的ip或则hostname)。在指定broker-list时,如果不想partition分配到某个Broker时则list中不要有对应节点的BrokerID即可。

3.kafka-reassign-partitions命令是针对Partition进行重新分配,而不能将整个Topic的数据重新均衡到所有的Partition中。

提示:代码块部分可以左右滑动查看噢

为天地立心,为生民立命,为往圣继绝学,为万世开太平。

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。

原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

标签: #vim 格式化json #kafka中的partition