Kafka在CentOS上的安全性配置指南
在开始安全配置前,需确保CentOS系统已满足以下前提条件:
sudo yum install -y java-11-openjdk-devel);config目录准备配置文件;认证是保障Kafka安全的第一步,用于验证客户端与Broker的身份合法性。常见机制包括SASL/SCRAM(推荐)和SASL/PLAIN(简单但明文传输)。
SCRAM(Salted Challenge Response Authentication Mechanism)通过动态盐值和迭代哈希增强密码安全性,适合生产环境。
kafka-configs.sh脚本创建用户及密码(如producer、consumer):bin/kafka-configs.sh --zookeeper localhost:2181 --alter --entity-type users --entity-name producer --add-config SCRAM-SHA-256=[iterations=8192,password=producer-secret]
bin/kafka-configs.sh --zookeeper localhost:2181 --alter --entity-type users --entity-name consumer --add-config SCRAM-SHA-256=[iterations=8192,password=consumer-secret]
kafka_server_jaas.conf,配置SCRAM登录模块:KafkaServer {
org.apache.kafka.common.security.scram.ScramLoginModule required
user_producer="producer-secret"
user_consumer="consumer-secret";
};
server.properties:启用SASL/SCRAM认证及协议:listeners=SASL_SSL://0.0.0.0:9093 # 建议结合SSL使用
security.inter.broker.protocol=SASL_SSL
sasl.enabled.mechanisms=SCRAM-SHA-256
sasl.mechanism.inter.broker.protocol=SCRAM-SHA-256
sasl.jaas.config=file:/path/to/kafka_server_jaas.conf
PLAIN机制通过明文传输用户名密码,适合测试环境。
server.properties:listeners=SASL_PLAINTEXT://0.0.0.0:9092
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.enabled.mechanisms=PLAIN
sasl.mechanism.inter.broker.protocol=PLAIN
sasl.jaas.config=file:/path/to/kafka_server_jaas.conf
kafka_server_jaas.conf):KafkaServer {
org.apache.kafka.common.security.plain.PlainLoginModule required
username="admin"
password="admin-secret"
user_admin="admin-secret"
user_producer="producer-secret"
user_consumer="consumer-secret";
};
在bin/kafka-server-start.sh中添加JVM参数,加载JAAS配置:
export KAFKA_OPTS="-Djava.security.auth.login.config=/path/to/kafka_server_jaas.conf"
./kafka-server-start.sh -daemon config/server.properties
加密用于保护客户端与Broker之间、Broker与Broker之间的数据传输,防止窃听。推荐使用SSL/TLS。
使用OpenSSL或Keytool生成自签名证书(生产环境建议使用CA签发的证书):
# 创建密钥库(Keystore)
keytool -genkey -alias kafka-server -keystore kafka.server.keystore.jks -storepass password -validity 365 -keysize 2048 -dname "CN=kafka-server, OU=test, O=test, L=China, ST=China, C=CN"
# 导出证书
keytool -export -alias kafka-server -file kafka.server.crt -keystore kafka.server.keystore.jks -storepass password
# 创建信任库(Truststore)并导入证书
keytool -import -alias kafka-server -file kafka.server.crt -keystore kafka.server.truststore.jks -storepass password -noprompt
server.properties启用SSL并指定证书路径:
listeners=SSL://0.0.0.0:9093
advertised.listeners=SSL://your-public-ip:9093 # 生产环境需替换为公网IP
ssl.keystore.location=/path/to/kafka.server.keystore.jks
ssl.keystore.password=password
ssl.key.password=password
ssl.truststore.location=/path/to/kafka.server.truststore.jks
ssl.truststore.password=password
ssl.enabled.protocols=TLSv1.2,TLSv1.3
ssl.cipher.suites=TLS_AES_128_GCM_SHA256,TLS_AES_256_GCM_SHA384
ssl.endpoint.identification.algorithm=HTTPS # 生产环境建议开启,防止中间人攻击
授权用于控制用户对Kafka资源(主题、消费者组等)的操作权限(如读、写、创建)。需结合ACL(访问控制列表)实现。
修改server.properties,指定授权类:
authorizer.class.name=kafka.security.authorizer.AclAuthorizer
allow.everyone.if.no.acl.found=false # 禁止未配置ACL的用户访问
super.users=User:admin # 超级用户(可跳过ACL检查)
使用kafka-acls.sh脚本配置权限(如允许producer向test-topic生产消息,consumer从test-topic消费消息):
# 创建用户(若未创建)
bin/kafka-configs.sh --zookeeper localhost:2181 --alter --entity-type users --entity-name producer --add-config SCRAM-SHA-256=[password=producer-secret]
# 授权producer向test-topic生产
bin/kafka-acls.sh --authorizer-properties zookeeper.connect=localhost:2181 --add --allow-principal User:producer --operation Produce --topic test-topic
# 授权consumer从test-topic消费
bin/kafka-acls.sh --authorizer-properties zookeeper.connect=localhost:2181 --add --allow-principal User:consumer --operation Consume --topic test-topic --group consumer-group
通过网络隔离限制Kafka服务的访问范围,减少攻击面。
使用firewall-cmd开放Kafka端口(如SSL端口9093),并限制访问IP:
# 开放9093端口
sudo firewall-cmd --permanent --add-port=9093/tcp
# 仅允许特定IP段访问(如内网192.168.1.0/24)
sudo firewall-cmd --permanent --add-rich-rule='rule family="ipv4" source address="192.168.1.0/24" accept'
# 重新加载防火墙规则
sudo firewall-cmd --reload
在server.properties中指定listeners绑定的IP(如仅绑定内网IP):
listeners=SSL://192.168.1.100:9093
advertised.listeners=SSL://192.168.1.100:9093
kafka-configs.sh脚本定期更新(如每90天);setenforce 0)或调整其策略,避免冲突;-Dcom.sun.management.jmxremote),配置日志轮转(如logrotate),设置磁盘空间告警;通过以上步骤,可在CentOS上为Kafka构建“认证-加密-授权”的完整安全体系,有效防范未授权访问、数据泄露等风险。生产环境中建议结合SSL加密与ACL权限控制,进一步提升安全性。