跳到主要内容

08、Kafka 实战 - Kafka Broker之生产经验

1 节点服役和退役

1.1 服役新节点

新节点准备:
1、 关闭hadoop104,并右键执行克隆操作。
2、 开启hadoop105,并修改 IP 地址为105。

vim /etc/sysconfig/network-scripts/ifcfg/ens33

3、 在 hadoop105 上,修改主机名称为hadoop105。

vim /etc/hostname

4、 重新启动hadoop104、hadoop105。
5、 修改haodoop105 中 kafka 的 broker.id 为 3。
6、 删除hadoop105 中 kafka 下的 datas 和 logs。
7、 启动hadoop102、hadoop103、hadoop104 上的 kafka 集群。

zk.sh start
kf.sh start

8、 单独启动hadoop105 中的 kafka。

bin/kafka-server-start.sh -daemon ./config/server.properties

执行负载均衡操作:
1、 创建一个要均衡的主题。

vim topics-to-move.json
{
   
     
     "topics": [
          {
   
     "topic": "first"} 
          ],
    "version": 1
}

2、 生成一个负载均衡的计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --topics-to-move-json-file topics-to-move.json --broker-list "0,1,2,3" --generate

 
3、 创建副本存储计划(所有副本存储在 broker0、broker1、broker2、broker3 中)。

vim increase-replication-factor.json

输入以下内容:
 
4、 执行副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --reassignment-json-file increase-replication-factor.json --execute

 
5、 验证副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --reassignment-json-file increase-replication-factor.json --verify

 

1.2 退役旧节点

执行负载均衡操作:先按照退役一台节点,生成执行计划,然后按照服役时操作流程执行负载均衡。
1、 创建一个要均衡的主题。

vim topics-to-move.json
{
   
     
     "topics": [
          {
   
     "topic": "first"} 
          ],
    "version": 1
}

2、 创建执行计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --topics-to-move-json-file topics-to-move.json --broker-list "0,1,2" --generate

 
3、 创建副本存储计划(所有副本存储在 broker0、broker1、broker2 中)。

vim increase-replication-factor.json

输入以下内容:
 
4、 执行副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --reassignment-json-file increase-replication-factor.json --verify

 
5、 验证副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --reassignment-json-file increase-replication-factor.json --verify

 
执行停止命令:

[lyx@hadoop105 kafka]$ bin/kafka-server-stop.sh

2 手动调整分区副本存储

在生产环境中,每台服务器的配置和性能不一致,但是Kafka只会根据自己的代码规则创建对应的分区副本,就会导致个别服务器存储压力较大。所有需要手动调整分区副本的存储。
需求: 创建一个新的topic,4个分区,两个副本,名称为third。将该topic的所有副本都存储到broker0和broker1两台服务器上。
 
步骤: 1、 创建一个新的topic,为third。

bin/kafka-topics.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --create --partitions 4 --replication-factor 2 --topic third

2、 查看分区副本存储情况。

bin/kafka-topics.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --describe --topic third

 
3、 创建副本存储计划(所有副本都指定存储在broker0、broker1)。

vim increase-replication-factor.json

#输入以下内容
{
   
     
    "version":1,
    "partitions":[{
   
     "topic":"third","partition":0,"replicas":[0,1]},
            {
   
     "topic":"third","partition":1,"replicas":[0,1]},
            {
   
     "topic":"third","partition":2,"replicas":[1,0]},
            {
   
     "topic":"third","partition":3,"replicas":[1,0]}]
}

4、 执行副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --reassignment-json-file increase-replication-factor.json --execute

5、 验证副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --reassignment-json-file increase-replication-factor.json --verify

6、 查看分区副本存储情况。

bin/kafka-topics.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --describe --topic third

 

3 Leader Partition负载平衡

正常情况下,Kafka本身会自动把Leader Partition均匀分散在各个机器上,来保证每台机器的读写吞吐量都是均匀的。但是如果某些broker宕机,会导致Leader Partition过于集中在其他少部分几台broker上,这会导致少数几台broker的读写请求压力过高,其他宕机的 broker重启之后都是follower partition,读写请求很低,造成集群负载不均衡。

解决方法:
 
例如:  
对于broker0节点,分区2的AR优先副本是0节点,但0节点不是Leader节点,所以不平衡数+1,AR副本总数为4,所以broker0节点不平衡率为1/4>10%,需要平衡。
对于broker2节点,分区3的AR优先副本是2节点,但2节点不是Leader节点,所以不平衡数+1,AR副本总数为4,所以broker2节点不平衡率为1/4>10%,需要平衡。
对于broker3节点,分区0的AR优先副本是3节点,但3节点不是Leader节点,所以不平衡数+1,AR副本总数为4,所以broker3节点不平衡率为1/4>10%,需要平衡。
对于broker1节点,分区1的AR优先副本是1节点,且1节点是Leader节点,所以不平衡数为0,broker1节点不平衡率为0,不需要平衡。
PS:不要频繁触发负载平衡操作,因为会浪费大量进程资源。

4 增加副本因子

在生产环境当中,由于某个主题的重要等级需要提升,我们考虑增加副本。副本数的增加需要先制定计划,然后根据计划执行。
1、 创建topic

bin/kafka-topics.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --create --partitions 3 --replication-factor 1 --topic fourth

 
2、 手动增加副本存储,创建副本存储计划(所有副本都指定存储在 broker0、broker1、broker2 中)。

vim increase-replication-factor.json

#输入以下内容
{
   
     
    "version":1,
    "partitions":[{
   
     "topic":"fourth","partition":0,"replicas":[0,1,2]},
            {
   
     "topic":"fourth","partition":1,"replicas":[0,1,2]},
            {
   
     "topic":"fourth","partition":2,"replicas":[0,1,2]}]
}

3、 执行副本计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092,hadoop103:9092 --reassignment-json-file increase-replication-factor.json --execute