apache-kafka - Kafka Connect 能否使用来自单独的 Kerberized Kafka 实例的数据,然后路由到 Splunk?
问题描述
我的管道是:
Kerberized Kafka --> Logstash(托管在不同的服务器上) -> Splunk。
我可以用Kafka Connect替换Logstash组件吗?
您能否指出我可以使用kerberized Kafka作为我的Kafka 连接(单独托管)的来源的资源/指南?
从文档中,我了解到,如果Kafka Connect托管在与Kafka相同的集群上,那是很有可能的。但是我现在没有这个选项,因为我们的 Kafka 集群是多租户的,因此不被批准用于集群上的其他进程。
解决方案
Kerberos 密钥表通常不是特定于机器/JVM 的,所以是的,Kafka Connect 的配置应该与 Logstash 非常相似,因为两者都是使用原生 Kafka 协议的 JVM 进程。
无论如何,您都不应该在代理上运行 Connect
推荐阅读
- python - 如何在 SQLAlchemy 中加入表并获取组合信息
- python - 列出熊猫数据框中每组的唯一值计数
- python - 包含变量计数的 Python 任务问题
- c++ - C++ dll堆内存分配问题
- javascript - document.getElementById 为 null - 自动点击器
- javascript - node.js 中 setInterval 的替代方法,用于启动某些功能
- java - 想要在 BootStrap url 中输入主机名:9092(我的主机文件窗口中有针对实际 url 的主机名条目)JAVA
- swift - 快速响应令牌类型
- reactjs - React 没有返回更新的状态
- android - 没有使用迪拜时区从日历实例中获取迪拜当前时间