参考文档

官方文档
java-demo1
java-demo2

其他文档:
深入浅出理解基于 Kafka 和 ZooKeeper的分布式消息队列
kafka如何配置SASL/PLAIN认证模式
Kafka安全认证SASL/PLAIN,并和springBoot整合
Kafka中的主题与分区
详细解析kafka之kafka分区和副本
kafka删除topic及其相关数据

概念

简介

Kafka有四个核心的API:

  1. The Producer API 允许一个应用程序发布一串流式的数据到一个或者多个Kafka topic.
  2. The Consumer API 允许一个应用程序订阅一个或多个 topic,并且对发布给他们的流式数据进行处理.
  3. The Streams API 允许一个应用程序作为一个流处理器,消费一个或者多个topic产生的输入流,然后生产一个输出流到一个或多个topic中去,在输入输出流中进行有效的转换.
  4. The Connector API 允许构建并运行可重用的生产者或者消费者,将Kafka topics连接到已存在的应用程序或者数据系统.比如,连接到一个关系型数据库,捕捉表(table)的所有变更内容.

zookeeper

kafka的发送与接收

发送:kafka的发送程序(代码)会指定broker服务地址,那么消息的发送会直接发送到broker提供的地址中.

如果地址是列表(指定了多个broker地址),那么则随机选择一个可用的发送.接收到消息的kafka机器会向zookeeper查询拥有该topic下partition决定权(leader)的机器,然后由该leader选择机器存储数据,最终存储数据.

接收:kafka的接收会指定zookeeper地址,那么接收到消费任务的zookeeper将任务报告给该topic下partition的leader,由该leader指定follower完成数据的获取并返回.

IMG_256

一个典型的 Kafka 体系架构包括若干 Producer(消息生产者),若干 broker(作为 Kafka 节点的服务器),若干 Consumer(Group),以及一个 ZooKeeper 集群.Kafka通过 ZooKeeper 管理集群配置.选举 Leader 以及在 consumer group 发生变化时进行 Rebalance(即消费者负载均衡,在下一课介绍).Producer 使用 push(推)模式将消息发布到 broker,Consumer 使用 pull(拉)模式从 broker 订阅并消费消息.

Kafka安全认证SASL/PLAIN,并和springBoot整合

修改kafka启动配置文件server.properties

1
2
3
4
5
6
cd /usr/local/etc/kafka

# 复制一份
cp server.properties server_sasl.properties

vim server_sasl.properties
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
# 设置broker的唯一标识(集群唯一随便设置).
broker.id=0

#设置带SASL安全认证的服务监听(域名或者IP修改为机器的正式IP或者域名就好其他照抄)
listeners=SASL_PLAINTEXT://192.168.1.159:9092

# 使用的认证协议
security.inter.broker.protocol=SASL_PLAINTEXT

#SASL机制
sasl.enabled.mechanisms=PLAIN

sasl.mechanism.inter.broker.protocol=PLAIN

# 完成身份验证的类
authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer

# 如果没有找到ACL(访问控制列表)配置,则允许任何操作.
allow.everyone.if.no.acl.found=true

cd /usr/local/opt/修改启动文件

config添加kafka_server_jaas.conf 文件

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
vi kafka_server_jaas.conf

#此文件是服务端 设置用户名和密码

KafkaServer {

org.apache.kafka.common.security.plain.PlainLoginModule required

username="kafkaadmin"

password="kafkaadminpwd"

user_kafkaadmin="kafkaadminpwd"

user_kafkaclient1="kafkaclient1pwd"

user_kafkaclient2="kafkaclient2pwd";

};

Client {

org.apache.kafka.common.security.plain.PlainLoginModule required

username="zooclient"

password="zooclientpwd";

};

username/password是给kafka brokers之间作为client初始请求连接访问使用的,会被作为server的broker验证.

user_kafkaadmin这个就是1中提到的连接访问请求验证信息,所以这条是必须的.

user_kafkaclient1/user_kafkaclient2定义了kafka的client,其值就是密码.

Client是把kafka作为client端,访问zookeeper(作为server端)的时候用的.对应的必须在zookeeper里面做相应的配置.

kafka-server-start.sh添加

1
2
3
4
5
6
7
8
cd /usr/local/opt/kafka/libexec/bin

if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then

export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G
-Djava.security.auth.login.config=/usr/local/etc/kafka/kafka_server_jaas.conf"

fi

添加zookeeper_jaas.conf

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
cd /usr/local/etc/kafka

Server {

org.apache.kafka.common.security.plain.PlainLoginModule required

username="zooadmin"

password="zooadminpwd"

user_zooclient="zooclientpwd";

};

user_zooclient这个用户就是前面kafka_server_jaas.conf里面的Client信息;
这样就对上了:这两个用户名和密码必须一致,作为kafka client和zookeeper server之间认证使用.

zookeeper-server-start.sh添加

1
2
3
4
5
6
7
cd /usr/local/opt/kafka/libexec/bin

if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then

export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G -Djava.security.auth.login.config=/usr/local/etc/kafka/zookeeper_jaas.conf"

fi

修改brew services 启动文件

cd /usr/local/opt/zookeeper

1
2
<string>/usr/local/opt/kafka/bin/zookeeper-server-start</string>
<string>/usr/local/etc/kafka/zookeeper.properties</string>

直接启动,观察是否有错误

分别启动各个kafka,指定自定义的配置文件,先不要后端启动,观察,日志有没有出错

1
2
cd /usr/local/opt/kafka/libexec/
./bin/kafka-server-start.sh ./config/server_sasl.properties

安装中遇见的问题

  1. 出现The valid options based on currently configured listeners are PLAINTEXT

查看变红处listeners=SASL_PLAINTEXT://localhost:9092

  1. 配置错误
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
KafkaServer{

org.apache.kafka.common.security.plain.PlainLoginModule required

username="kafka"

password="kafka-secret"

user_kafka="kafka-secret"

user_alice="alice-secret";

};

逗号的问题

springboot整合

生产者yml中配置

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
kafka:
    # 指定kafka server的地址,集群配多个,中间,逗号隔开
    bootstrap-servers: localhost:9092
    producer:  
      # 写入失败时,重试次数.当leader节点失效,一个repli节点会替代成为leader节点,此时可能出现写入失败,
      # 当retris为0时,produce不会重复.retirs重发,此时repli节点完全成为leader节点,不会产生消息丢失.
      retries: 0
      # 每次批量发送消息的数量,produce积累到一定数据,一次发送
      batch-size: 16384
      # produce积累数据一次发送,缓存大小达到buffer.memory就发送数据
      buffer-memory: 33554432
      #procedure要求leader在考虑完成请求之前收到的确认数,用于控制发送记录在服务端的持久化,其值可以为如下:
      #acks = 0 如果设置为零,则生产者将不会等待来自服务器的任何确认,该记录将立即添加到套接字缓冲区并视为已发送.在这种情况下,无法保证服务器已收到记录,并且重试配置将不会生效(因为客户端通常不会知道任何故障),为每条记录返回的偏移量始终设置为-1.
      #acks = 1 这意味着leader会将记录写入其本地日志,但无需等待所有副本服务器的完全确认即可做出回应,在这种情况下,如果leader在确认记录后立即失败,但在将数据复制到所有的副本服务器之前,则记录将会丢失.
      #acks = all 这意味着leader将等待完整的同步副本集以确认记录,这保证了只要至少一个同步副本服务器仍然存活,记录就不会丢失,这是最强有力的保证,这相当于acks = -1的设置.
      #可以设置的值为:all, -1, 0, 1
      acks: 1
      # 指定消息key和消息体的编解码方式
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer

      ##重要配置##
      properties: 
        sasl.mechanism: PLAIN
        security.protocol: SASL_PLAINTEXT
        sasl.jaas.config: org.apache.kafka.common.security.plain.PlainLoginModule required username="kafkaclient1" password="kafkaclient1pwd";

消费者yaml配置

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
kafka:
    # 指定kafka server的地址,集群配多个,中间,逗号隔开
    bootstrap-servers: localhost:9092
    consumer:
      # 指定默认消费者group id --> 由于在kafka中,同一组中的consumer不会读取到同一个消息,依靠groud.id设置组名
      group-id: test
      # 如果Kafka中没有初始偏移量,或者如果当前偏移量在服务器上不再存在(例如,因为该数据已被删除),该怎么办:
      # earliest最早:自动将偏移量重置为最早的偏移量
      # latest最新:自动将偏移重置为最新偏移
      # none无:如果未找到消费者组的先前偏移量,则向使用者抛出异常
      # anything else其他:向消费者抛出异常.
      auto-offset-reset: earliest
      # enable.auto.commit:true --> 设置自动提交offset
      enable-auto-commit: true
      #如果'enable.auto.commit'为true,则消费者偏移自动提交给Kafka的频率(以毫秒为单位),默认值为5000.
      auto-commit-interval: 1000
      # 指定消息key和消息体的编解码方式
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer

      ##重要配置##
      properties: 
        sasl.mechanism: PLAIN
        security.protocol: SASL_PLAINTEXT
        sasl.jaas.config: org.apache.kafka.common.security.plain.PlainLoginModule required username="kafkaclient2" password="kafkaclient2pwd";

更新

kafka更新主要配置的更改

zookeeper可以直接更新而无需其他操作

主题与分区

主题.分区与副本

主题(Topic):

Kafka中的消息以主题为单位进行归类,生产者负责将消息发送到特定的主题,而消费者负责订阅主题进行消费;

分区(Partition):

主题可以分为多个分区,一个分区只属于单个主题;

同一主题下的不同分区包含的消息不同(即,发送给主题的消息具体是发送到某一个分区);

消息被追加到分区日志文件的时候,会分配一个特定的偏移量(offset),offset是消息在分区中的唯一标识,Kafka通过它来保证消息在分区的顺序性; offset不跨分区,也就是说Kafka保证的是分区有序而不是主题有序;

副本(Replia):

Kafka为分区引入了多副本机制,通过增加副本数量可以提升容灾能力.

同一个分区的不同副本之间保存的是相同的消息;副本之间是一主多从的关系,其中leader副本负责处理读写请求;follower副本只负责与leader副本的消息同步;

副本处于不同的broker中,当leader副本出现故障时,从follower副本重新选举新的leader副本对外提供服务.

Kafka通过多副本机制实现了故障的自动转移;

多分区与多副本机制

主题和分区是逻辑结构,一个副本对应一个存储消息的日志文件;

分区的多个副本分布在不同的broker上,所以主题和分区都是横跨broker的;

一个主题下对应多个分区,通过增加分区数量可以实现水平扩展,提高性能;

一个分区下有多个副本,通过多副本机制提升容灾能力;

主题正则表达式

topicPattern 为正则表达式主题配置

例子:@KafkaListener(topicPattern = "handle_diag_udsReadDid_.*")

消费者群组

为什么kafka的消费者要有分组的概念

通常一个分区由一个消费者消费,或者说由一个组中的一个消费.

有一种情况,分区数多,且只有一个消费者时,分组的话,消息会被组中唯一一个消费者线性消费,不会发生争抢.因为消息能被组中一个消费者线性消费.

不分组的话会消息都会被消费者拉过去.

删除topic

真删除

server.properties配置delete.topic.enable=true