首页 > 解决方案 > 数据未通过 Avro 序列化发送到 Kafka

问题描述

我正在尝试使用 Avro 将数据发送到 Kafka,但“消息”仍然为空。我尝试手动将模式添加到 Kafka,但没有结果。我在应用程序的日志、模式注册表日志或 Kafka 的日志中看不到任何错误。你能告诉我我做错了什么吗?

import org.apache.kafka.clients.producer.{ KafkaProducer, ProducerRecord, RecordMetadata }
import com.sksamuel.avro4s.{ AvroSchema, Record, RecordFormat, SchemaFor }    

case class User(name: String, age: Int)

val connectConfig: Map[String, Object] =
Map(
  "bootstrap.servers"   -> "localhost:9092",
  "client.id"           -> s"clientID${UUID.randomUUID().toString}",
  "key.serializer"      -> "org.apache.kafka.common.serialization.StringSerializer",
  "value.serializer"    -> "io.confluent.kafka.serializers.KafkaAvroSerializer",
  "schema.registry.url" -> "localhost:8081"
)

implicit val producer = new KafkaProducer[String, Record](connectConfig.asJava)

def sendAvro(msg: DIL): Future[RecordMetadata] = {
    val newUser = User("Joe", 42)
    val schema  = AvroSchema[User]
    implicit val schemaFor = SchemaFor[User]
    val format = RecordFormat[User]

    val record = new ProducerRecord[String, Record]("kafkaLogTopic", format.to(newUser))
    producer.send(record)
}

标签: scalaapache-kafkaavroavro4s

解决方案


Kafka 批量发送数据,你的单条记录小于默认的批量大小。

使用.send(data).get()producer.flush()立即等待要发送的一条记录。

否则,您应该定义一个线程scala.sys.ShutdownHookThread来刷新生产者


推荐阅读