kafka安装教程及在spring boot中的使用

1.kafka简介

kafka 是 Linkedin 公司用于日志处理的分布式消息队列,现归 Apache 维护,官网地址:http://kafka.apache.org/

kafka中几个消息系统术语:

producer通过tcp协议发送消息到kafka集群,kafka集群向消费者提供消息,如下图所示:

主题(topic)

一个topic相当于是一类消息,每个topic可以分为多个partition。任何发布到此partition的消息都会直接追加到分区尾部,每个消息有一个序列号称为offset。消息是有序且不可变的。

kafka中消息可以设置保存时间,在时间期限内可以被消费,到期后会被删除释放空间。

consumer需要维护它在读取消息的位置即offset,可以随着offset增加顺序读取消息,也可以重置offset重读之前的消息。

分布式

每个分区在Kafka集群的若干服务中都有副本,这样这些持有副本的服务可以共同处理数据和请求,副本数量是可以配置的。副本使Kafka具备了容错能力。

每个分区都由一个服务器作为“leader”,零或若干服务器作为“followers”,leader负责处理消息的读和写,followers则去复制leader.如果leader down了,followers中的一台则会自动成为leader。集群中的每个服务都会同时扮演两个角色:作为它所持有的一部分分区的leader,同时作为其他分区的followers,这样集群就会据有较好的负载均衡

consumer

kafka 中的发布-订阅模式消费者是以组为单位订阅服务的,同一组中,同一个分区只能被一个消费者消费。所以组中的消费者数量不能大于分区数量。 如上图,由两个机器组成的集群拥有4个分区 (P0-P3) 2个consumer组. A组有两个consumerB组有4个。

2.Linux下安装kafka

安装

可以从官网下载:https://kafka.apache.org/downloads

命令下载:

wget http://mirrors.shuosc.org/apache/kafka/1.0.0/kafka_2.11-1.0.0.tgz

找个地方解压:

tar -zxvf kafka_2.11-1.0.0.tgz

解压文件夹中有个 config 文件夹,里面有相关配置文件。 可以修改 kafka-server 的配置文件

broker.id=1
log.dir=自己定义一个地址
listeners=PLAINTEXT://host.name:9092

启动

1. 启动zookeeper

 bin/zookeeper-server-start.sh -daemon config/zookeeper.properties

2. 启动kafka

bin/kafka-server-start.sh  config/server.properties

后台启动方式

bin/kafka-server-start.sh  config/server.properties 1>/dev/null 2>&1 &

3.kafka常用命令

创建 topic

创建 topic 主题

 bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

查看 topic 列表

bin/kafka-topics.sh --list --zookeeper localhost:2181

发送消息

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

消费消息

接收消息并打印

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

查看 topic 描述信息

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test

4.spring boot 整合 kafka 基本使用

参考该篇博客http://www.54tianzhisheng.cn/2018/01/05/SpringBoot-Kafka/

1.创建项目引入相关依赖

kafka 的依赖,json转换工具等

2.创建消息实体类

@Data
public class Message {
    private Long id;    //id

    private String msg; //消息

    private Date sendTime;  //时间戳

}

3.创建消息发送者

@Component
@Slf4j
public class KafkaSender {

    @Autowired
    private KafkaTemplate<String, String> kafkaTemplate;

    private Gson gson = new GsonBuilder().create();

    //发送消息方法
    public void send() {
        Message message = new Message();
        message.setId(System.currentTimeMillis());
        message.setMsg(UUID.randomUUID().toString());
        message.setSendTime(new Date());
        log.info("+++++++++++++++++++++  message = {}", gson.toJson(message));
        ListenableFuture future = kafkaTemplate.send("test", "001", JSONObject.toJSONString(message));
        future.addCallback(o -> System.out.println("send-消息发送成功:" + message), throwable -> System.out.println("消息发送失败:" + message));
    }
}

4.创建消息接收者

@Component
@Slf4j
public class KafkaReceiver {

    @KafkaListener(topics = {"test"})
    public void listen(ConsumerRecord<?, ?> record) {

        Optional<?> kafkaMessage = Optional.ofNullable(record.value());

        if (kafkaMessage.isPresent()) {

            Object message = kafkaMessage.get();

            log.info("----------------- record =" + record);
            log.info("------------------ message =" + message);
        }

    }
}

5.配置文件

#============== kafka ===================
# 指定kafka 代理地址可以多个
spring.kafka.bootstrap-servers=192.168.153.135:9092

#=============== provider  =======================

spring.kafka.producer.retries=0
# 每次批量发送消息的数量
spring.kafka.producer.batch-size=16384
spring.kafka.producer.buffer-memory=33554432

# 指定消息key和消息体的编解码方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

#=============== consumer  =======================
# 指定默认消费者group id
spring.kafka.consumer.group-id=test-consumer-group

spring.kafka.consumer.auto-offset-reset=earliest
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval=100

# 指定消息key和消息体的编解码方式
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer