首页 > 解决方案 > 如何在使用 S3 sink 连接器时增加现有主题的分区

问题描述

我正在使用 S3 sink 连接器和 kafka connect 并尝试将数据加载到 s3 。不知何故,我无法更新或增加主题分区的大小,也无法更改 offset.flush.timeout.ms 值。我正在尝试将其添加到我正在使用的 S3 连接器 curl 文件中,但没有任何更新。

{
    "name": "my-s3-sink3",
     "config": {
         "connector.class"               : "io.confluent.connect.s3.S3SinkConnector",
         "tasks.max"                     : "1",
         "topics"                        : "mysource.topic",
         "s3.region"                     : "us-east-1",
         "s3.bucket.name"                : "topicbucket001",
         "s3.part.size"                  : "5242880",
         "flush.size"                    : "1",
         "key.converter"                 : "org.apache.kafka.connect.storage.StringConverter",
         "value.converter"               : "org.apache.kafka.connect.json.JsonConverter",
         "value.converter.schemas.enable": "false",
         "storage.class"                 : "io.confluent.connect.s3.storage.S3Storage",
         "format.class"                  : "io.confluent.connect.s3.format.json.JsonFormat",
         "partitioner.class"             : "io.confluent.connect.storage.partitioner.DefaultPartitioner",
         "schema.compatibility"          : "NONE"
         "offset.flush.timeout.ms"        : 1000
         "topic.creation.default.replication.factor": 3,
         "topic.creation.default.partitions": 10,
         "topic.creation.default.compression.type": "snappy"
        }
    }

标签: apache-kafkaapache-kafka-connectconfluent-platforms3-kafka-connector

解决方案


推荐阅读