confluent-schema-registry - 如何忽略 kafka jdbc sink 连接器中的错误消息?
问题描述
我正在使用 kafka JDBC 连接器将数据从 kafka 主题推送到 aws 上的 postgres。但是,当出现错误消息时,例如,消息中的数据类型与数据库中定义的不同,我会收到错误消息:
错误 WorkerSinkTask{id=postgres_sink -0} 任务引发了未捕获且不可恢复的异常。任务被杀死,直到手动重新启动才能恢复。(org.apache.kafka.connect.runtime.WorkerSinkTask:584)
然后我必须手动删除我的 jdbc sink 连接器(pod)并让它启动一个新的。由于我在独立模式下运行,我需要防止连接器(pod)失败或因为插入失败而自动重启。
解决方案
推荐阅读
- fish - 鱼壳 - 嵌套引号中的插值
- javascript - 如何使用 swiper 滑块进行计时器分页
- arrays - 即使在 MongoDB 中将数字字符串转换为 Int 后,$lte 也无法按预期工作
- python - 我在使用 tensorflow 时遇到属性错误
- tableau-api - 有条件地在表格列表中设置颜色格式
- go - go get github.com/beego/bee 安装错误
- c - C中的qsort给出错误的结果
- ruby - Ruby如何从公共目录获取文件?
- java - 如何在 Quarkus 的 GRPC 服务器端服务中读取自定义标头?
- c++ - 有一个只调用另一个函数的函数有什么意义吗?