欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 焦点 > 【Kafka基础】Kafka 2.8以下版本的安装与配置指南:传统ZooKeeper依赖版详解

【Kafka基础】Kafka 2.8以下版本的安装与配置指南:传统ZooKeeper依赖版详解

2025/4/18 12:52:47 来源:https://blog.csdn.net/qq_43715111/article/details/146990565  浏览:    关键词:【Kafka基础】Kafka 2.8以下版本的安装与配置指南:传统ZooKeeper依赖版详解

对于仍在使用Kafka 2.8之前版本的团队来说,需要特别注意其强依赖外部ZooKeeper的特性。本文将完整演示传统架构下的安装流程,并对比新旧版本差异。

1 版本特性差异说明

1.1 2.8+ vs 2.8-核心区别

特性

2.8+版本

2.8-版本

协调服务

可选内置KRaft模式

强制依赖外部ZooKeeper集群

部署复杂度

单进程即可运行

需独立维护ZK集群

元数据性能

吞吐提升20%+

受ZK性能制约

推荐生产版本

≥3.0

≤2.7.x

2 安装准备(以2.7.1为例)

2.1 组件下载

Kafka下载地址:Index of /dist/kafka/2.7.1

Zookeeper下载地址:Index of /dist/zookeeper

2.2. 解压安装包以及目录结构

# 解压kafka安装包
tar -zxvf kafka_2.13-2.7.1.tgz -C kafka_zk/
# 解压zk安装包
tar -zxvf apache-zookeeper-3.6.3-bin.tar.gz -C kafka_zk/# 目录结构
[root@node5 kafka_zk]# tree -L 2
.
├── apache-zookeeper-3.6.3-bin
│   ├── bin
│   ├── conf
│   ├── data
│   ├── docs
│   ├── lib
│   ├── LICENSE.txt
│   ├── logs
│   ├── NOTICE.txt
│   ├── README.md
│   └── README_packaging.md
└── kafka_2.13-2.7.1├── bin├── config├── libs├── LICENSE├── licenses├── logs├── NOTICE└── site-docs14 directories, 6 files
[root@node5 kafka_zk]# # 各个目录用途解释
.
├── apache-zookeeper-3.6.3-bin          # ZooKeeper 安装目录
│   ├── bin                             # ZooKeeper 可执行脚本(启动/停止/运维)
│   ├── conf                            # ZooKeeper 配置文件(zoo.cfg 等)
│   ├── data                            # ZooKeeper 数据存储目录(手动创建)
│   ├── docs                            # ZooKeeper 官方文档
│   ├── lib                             # ZooKeeper 运行时依赖库(JAR 文件)
│   ├── LICENSE.txt                     # Apache 2.0 许可证文件
│   ├── logs                            # ZooKeeper 运行日志(自动生成)
│   ├── NOTICE.txt                      # 第三方组件版权声明
│   ├── README.md                       # 项目说明文件
│   └── README_packaging.md             # 打包说明文件
└── kafka_2.13-2.7.1                    # Kafka 安装目录├── bin                             # Kafka 管理脚本(启动/主题操作等)├── config                          # Kafka 配置文件(server.properties 等)├── libs                            # Kafka 依赖库(核心 JAR 文件)├── LICENSE                         # Apache 2.0 许可证文件├── licenses                        # 第三方依赖的许可证文件├── logs                            # Kafka 运行日志(需手动创建或自动生成)├── NOTICE                          # 项目版权声明└── site-docs                       # Kafka 离线文档(HTML 格式)

3 ZooKeeper独立部署

3.1 编辑配置文件

# 编辑conf/zoo.cfg:备份conf/zoo.cfg文件并添加如下内容
cp conf/zoo.cfg conf/zoo.cfg_bak
cat >conf/zoo.cfg<<EOF
# ZooKeeper 基础配置
tickTime=2000
initLimit=10
syncLimit=5# 数据存储目录(需提前创建并赋予权限)
dataDir=/export/home/kafka_zk/apache-zookeeper-3.6.3-bin/data
dataLogDir=/export/home/kafka_zk/apache-zookeeper-3.6.3-bin/logs# 客户端连接端口
clientPort=2181# 单机模式无需集群配置
# server.1=ip:port:port (集群模式下需配置)# 高级优化(可选)
maxClientCnxns=60
autopurge.snapRetainCount=3
autopurge.purgeInterval=24
admin.serverPort=8080
maxClientCnxns=60
EOF

3.2 启动与验证

# 启动ZK(后台模式)
bin/zkServer.sh start conf/zoo.cfg# 验证状态
echo srvr | nc 192.168.10.34 2181[root@node5 apache-zookeeper-3.6.3-bin]# echo srvr | nc 192.168.10.34 2181
Zookeeper version: 3.6.3--6401e4ad2087061bc6b9f80dec2d69f2e3c8660a, built on 04/08/2021 16:35 GMT
Latency min/avg/max: 0/0.0/0
Received: 3
Sent: 2
Connections: 1
Outstanding: 0
Zxid: 0x0
Mode: standalone
Node count: 5
[root@node5 apache-zookeeper-3.6.3-bin]# 

4 Kafka服务配置

4.1 编辑配置文件

# 编辑config/server.properties文件:备份文件并添加如下内容
cp config/server.properties config/server.properties_bak
cat >config/server.properties<<EOF
############################ 基础配置 #############################
# Broker唯一标识(单机保持默认)
broker.id=0# 监听地址(必须配置为实际IP或主机名,不能用0.0.0.0)
listeners=PLAINTEXT://192.168.10.34:9092
advertised.listeners=PLAINTEXT://192.168.10.34:9092# 日志存储目录(需提前创建并赋权)
log.dirs=/export/home/kafka_zk/kafka_2.13-2.7.1/logs# ZooKeeper连接地址(单机模式)
zookeeper.connect=192.168.10.34:2181############################# 单机特殊配置 #############################
# 强制内部Topic副本数为1(单机必须配置!)
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1# 禁用自动创建Topic(生产环境建议)
auto.create.topics.enable=false############################# 性能优化 #############################
# 网络线程数(建议CPU核数)
num.network.threads=2# IO线程数(建议2*CPU核数)
num.io.threads=4# 日志保留策略
log.retention.hours=168      # 保留7天
log.segment.bytes=1073741824 # 单个日志段1GB
log.retention.check.interval.ms=300000 # 检查间隔5分钟# 消息持久化
flush.messages=10000         # 每10000条消息刷盘
flush.ms=1000                # 每秒刷盘一次############################# 高级调优 #############################
# Socket缓冲区大小
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400# 副本同步设置(单机可忽略)
default.replication.factor=1
min.insync.replicas=1# 控制器配置
controller.socket.timeout.ms=30000
EOF

4.2 编写启动脚本

# 创建bin/start-kafka.sh避免内存不足
#!/bin/bash
export KAFKA_HEAP_OPTS="-Xms1G -Xmx1G"
export JMX_PORT=9999
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-server-start.sh /export/home/kafka_zk/kafka_2.13-2.7.1/config/server.properties
chmod +x bin/start-kafka.sh

4.3 启动服务并验证

# 启动 
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/start-kafka.sh
# 创建topic并查看详情
# 创建名为test的Topic,1分区1副本
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-topics.sh --create \--bootstrap-server 192.168.10.34:9092 \--replication-factor 1 \--partitions 1 \--topic test[root@node5 ~]# /export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-topics.sh --create \
>   --bootstrap-server 192.168.10.34:9092 \
>   --replication-factor 1 \
>   --partitions 1 \
>   --topic test
Created topic test.
[root@node5 ~]# # 查看Topic详情
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-topics.sh --describe --topic test --bootstrap-server 192.168.10.34:9092[root@node5 ~]# /export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-topics.sh --describe --topic test --bootstrap-server 192.168.10.34:9092Topic: test     PartitionCount: 1       ReplicationFactor: 1    Configs: min.insync.replicas=1,segment.bytes=1073741824Topic: test     Partition: 0    Leader: 0       Replicas: 0     Isr: 0
[root@node5 ~]# 

5 版本特定问题解决

5.1 ZooKeeper连接超时

现象:Session expired错误

# 增加server.properties参数 
zookeeper.session.timeout.ms=18000 
zookeeper.connection.timeout.ms=15000

5.2. 磁盘写性能低下

# 禁用完全刷盘(牺牲部分可靠性) 
log.flush.interval.messages=10000 
log.flush.interval.ms=1000

5.3 监控指标缺失

# 启用JMX导出
KAFKA_JMX_OPTS="-Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.port=9999"
/export/home/kafka_zk/kafka_2.13-2.7.1/bin/kafka-server-start.sh /export/home/kafka_zk/kafka_2.13-2.7.1/bin/server.properties

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词