如何使用Java实现Kafka生产者和消费者的示例

发布时间:2021-02-14 17:14:15 作者:小新
来源:亿速云 阅读:301

这篇文章将为大家详细讲解有关如何使用Java实现Kafka生产者和消费者的示例,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

Kafka简介

Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka的目标是为处理实时数据提供一个统一、高吞吐、低延迟的平台。

如何使用Java实现Kafka生产者和消费者的示例

方式一:kafka-clients

引入依赖

在pom.xml文件中,引入kafka-clients依赖:

<dependency>
  <groupId>org.apache.kafka</groupId>
  <artifactId>kafka-clients</artifactId>
  <version>2.3.1</version>
</dependency>

生产者

创建一个KafkaProducer的生产者实例:

@Configuration
public class Config {

  public final static String bootstrapServers = "127.0.0.1:9092";

  @Bean(destroyMethod = "close")
  public KafkaProducer<String, String> kafkaProducer() {
    Properties props = new Properties();
    //设置Kafka服务器地址
    props.put("bootstrap.servers", bootstrapServers);
    //设置数据key的序列化处理类
    props.put("key.serializer", StringSerializer.class.getName());
    //设置数据value的序列化处理类
    props.put("value.serializer", StringSerializer.class.getName());
    KafkaProducer<String, String> producer = new KafkaProducer<>(props);
    return producer;
  }
}

在Controller中进行使用:

@RestController
@Slf4j
public class Controller {

  @Autowired
  private KafkaProducer<String, String> kafkaProducer;

  @RequestMapping("/kafkaClientsSend")
  public String send() {
    String uuid = UUID.randomUUID().toString();
    RecordMetadata recordMetadata = null;
    try {
     //将消息发送到Kafka服务器的名称为“one-more-topic”的Topic中
      recordMetadata = kafkaProducer.send(new ProducerRecord<>("one-more-topic", uuid)).get();
      log.info("recordMetadata: {}", recordMetadata);
      log.info("uuid: {}", uuid);
    } catch (Exception e) {
      log.error("send fail, uuid: {}", uuid, e);
    }
    return uuid;
  }
}

消费者

创建一个KafkaConsumer的消费者实例:

@Configuration
public class Config {

  public final static String groupId = "kafka-clients-group";
  public final static String bootstrapServers = "127.0.0.1:9092";

  @Bean(destroyMethod = "close")
  public KafkaConsumer<String, String> kafkaConsumer() {
    Properties props = new Properties();
    //设置Kafka服务器地址
    props.put("bootstrap.servers", bootstrapServers);
    //设置消费组
    props.put("group.id", groupId);
    //设置数据key的反序列化处理类
    props.put("key.deserializer", StringDeserializer.class.getName());
    //设置数据value的反序列化处理类
    props.put("value.deserializer", StringDeserializer.class.getName());
    props.put("enable.auto.commit", "true");
    props.put("auto.commit.interval.ms", "1000");
    props.put("session.timeout.ms", "30000");
    KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<>(props);
    //订阅名称为“one-more-topic”的Topic的消息
    kafkaConsumer.subscribe(Arrays.asList("one-more-topic"));
    return kafkaConsumer;
  }
}

在Controller中进行使用:

@RestController
@Slf4j
public class Controller {

  @Autowired
  private KafkaConsumer<String, String> kafkaConsumer;

  @RequestMapping("/receive")
  public List<String> receive() {
   从Kafka服务器中的名称为“one-more-topic”的Topic中消费消息
    ConsumerRecords<String, String> records = kafkaConsumer.poll(Duration.ofSeconds(1));
    List<String> messages = new ArrayList<>(records.count());
    for (ConsumerRecord<String, String> record : records.records("one-more-topic")) {
      String message = record.value();
      log.info("message: {}", message);
      messages.add(message);
    }
    return messages;
  }
}

方式二:spring-kafka

使用kafka-clients需要我们自己创建生产者或者消费者的bean,如果我们的项目基于SpringBoot构建,那么使用spring-kafka就方便多了。

引入依赖

在pom.xml文件中,引入spring-kafka依赖:

<dependency>
  <groupId>org.springframework.kafka</groupId>
  <artifactId>spring-kafka</artifactId>
  <version>2.3.12.RELEASE</version>
</dependency>

生产者

在application.yml文件中增加配置:

spring:
 kafka:
  #Kafka服务器地址
  bootstrap-servers: 127.0.0.1:9092
  producer:
   #设置数据value的序列化处理类
   value-serializer: org.apache.kafka.common.serialization.StringSerializer

在Controller中注入KafkaTemplate就可以直接使用了,代码如下:

@RestController
@Slf4j
public class Controller {

  @Autowired
  private KafkaTemplate<String, String> template;

  @RequestMapping("/springKafkaSend")
  public String send() {
    String uuid = UUID.randomUUID().toString();
    //将消息发送到Kafka服务器的名称为“one-more-topic”的Topic中
    this.template.send("one-more-topic", uuid);
    log.info("uuid: {}", uuid);
    return uuid;
  }
}

消费者

在application.yml文件中增加配置:

spring:
 kafka:
  #Kafka服务器地址
  bootstrap-servers: 127.0.0.1:9092
  consumer:
   #设置数据value的反序列化处理类
   value-deserializer: org.apache.kafka.common.serialization.StringDeserializer

创建一个可以被Spring框架扫描到的类,并且在方法上加上@KafkaListener注解,就可以消费消息了,代码如下:

@Component
@Slf4j
public class Receiver {

  @KafkaListener(topics = "one-more-topic", groupId = "spring-kafka-group")
  public void listen(ConsumerRecord<?, ?> record) {
    Optional<?> kafkaMessage = Optional.ofNullable(record.value());
    if (kafkaMessage.isPresent()) {
      String message = (String) kafkaMessage.get();
      log.info("message: {}", message);
    }
  }
}

关于“如何使用Java实现Kafka生产者和消费者的示例”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

推荐阅读:
  1. 生产者-消费者问题详解
  2. Java如何实现Kafka生产者消费者

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

java kafka

上一篇:ie9不能读取外部css样式的解决方法

下一篇:如何在Linux中部署一个.net core Api项目

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》