首页 > 解决方案 > Kafka Connect 能否使用来自单独的 Kerberized Kafka 实例的数据,然后路由到 Splunk?

问题描述

我的管道是:

Kerberized Kafka --> Logstash(托管在不同的服务器上) -> Splunk

我可以用Kafka Connect替换Logstash组件吗?

您能否指出我可以使用kerberized Kafka作为我的Kafka 连接(单独托管)的来源的资源/指南?

从文档中,我了解到,如果Kafka Connect托管在与Kafka相同的集群上,那是很有可能的。但是我现在没有这个选项,因为我们的 Kafka 集群是多租户的,因此不被批准用于集群上的其他进程。

标签: apache-kafkalogstashkerberosapache-kafka-connectsplunk

解决方案


Kerberos 密钥表通常不是特定于机器/JVM 的,所以是的,Kafka Connect 的配置应该与 Logstash 非常相似,因为两者都是使用原生 Kafka 协议的 JVM 进程。

无论如何,您都不应该在代理上运行 Connect


推荐阅读