emqx/rel/i18n/zh/emqx_bridge_kafka.hocon

355 lines
11 KiB
Plaintext
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

emqx_bridge_kafka {
connect_timeout.desc:
"""建立 TCP 连接时的最大等待时长(若启用认证,这个等待时长也包含完成认证所需时间)。"""
connect_timeout.label:
"""连接超时"""
producer_opts.desc:
"""本地 MQTT 数据源和 Kafka 桥接的配置。"""
producer_opts.label:
"""MQTT 到 Kafka"""
min_metadata_refresh_interval.desc:
"""刷新 Kafka broker 和 Kafka 主题元数据段最短时间间隔。设置太小可能会增加 Kafka 压力。"""
min_metadata_refresh_interval.label:
"""元数据刷新最小间隔"""
kafka_producer.desc:
"""Kafka Producer 配置。"""
kafka_producer.label:
"""Kafka Producer"""
producer_buffer.desc:
"""配置消息缓存的相关参数。
当 EMQX 需要发送的消息超过 Kafka 处理能力,或者当 Kafka 临时下线时EMQX 内部会将消息缓存起来。"""
producer_buffer.label:
"""消息缓存"""
socket_send_buffer.desc:
"""TCP socket 的发送缓存调优。默认值是针对高吞吐量的一个推荐值。"""
socket_send_buffer.label:
"""Socket 发送缓存大小"""
desc_name.desc:
"""桥接名字,可读描述"""
desc_name.label:
"""桥接名字"""
consumer_offset_commit_interval_seconds.desc:
"""指定 Kafka 消费组偏移量提交的时间间隔。"""
consumer_offset_commit_interval_seconds.label:
"""偏移提交间隔"""
consumer_max_batch_bytes.desc:
"""设置每次从 Kafka 拉取数据的字节数。如该配置小于 Kafka 消息的大小,可能会影响消费性能。"""
consumer_max_batch_bytes.label:
"""拉取字节数"""
socket_receive_buffer.desc:
"""TCP socket 的收包缓存调优。默认值是针对高吞吐量的一个推荐值。"""
socket_receive_buffer.label:
"""Socket 收包缓存大小"""
consumer_topic_mapping.desc:
"""指定 Kafka 主题和 MQTT 主题之间的映射关系。 应至少包含一项。"""
consumer_topic_mapping.label:
"""主题映射关系"""
producer_kafka_opts.desc:
"""Kafka 生产者参数。"""
producer_kafka_opts.label:
"""生产者参数"""
kafka_topic.desc:
"""Kafka 主题名称"""
kafka_topic.label:
"""Kafka 主题名称"""
consumer_kafka_topic.desc:
"""指定从哪个 Kafka 主题消费消息。"""
consumer_kafka_topic.label:
"""Kafka 主题"""
auth_username_password.desc:
"""基于用户名密码的认证。"""
auth_username_password.label:
"""用户名密码认证"""
auth_sasl_password.desc:
"""SASL 认证的密码。"""
auth_sasl_password.label:
"""密码"""
kafka_message_timestamp.desc:
"""生成 Kafka 消息时间戳的模版。该时间必需是一个整型数值(可以是字符串格式)例如 <code>1661326462115</code> 或 <code>'1661326462115'</code>。当所需的输入字段不存在,或不是一个整型时,则会使用当前系统时间。"""
kafka_message_timestamp.label:
"""消息的时间戳"""
buffer_mode.desc:
"""消息缓存模式。
<code>memory</code>: 所有的消息都缓存在内存里。如果 EMQX 服务重启,缓存的消息会丢失。
<code>disk</code>: 缓存到磁盘上。EMQX 重启后会继续发送重启前未发送完成的消息。
<code>hybrid</code>: 先将消息缓存在内存中,当内存中的消息堆积超过一定限制(配置项 <code>segment_bytes</code> 描述了该限制)后,后续的消息会缓存到磁盘上。与 <code>memory</code> 模式一样,如果 EMQX 服务重启,缓存的消息会丢失。"""
buffer_mode.label:
"""缓存模式"""
consumer_mqtt_qos.desc:
"""转发 MQTT 消息时使用的 QoS。"""
consumer_mqtt_qos.label:
"""QoS"""
consumer_key_encoding_mode.desc:
"""通过 MQTT 转发之前,如何处理 Kafka 消息的 Key。<code>none</code> 使用 Kafka 消息中的 Key 原始值,不进行编码。 注意在这种情况下Key 必须是一个有效的 UTF-8 字符串。
<code>base64</code> 对收到的密钥或值使用 base-64 编码。"""
consumer_key_encoding_mode.label:
"""Key 编码模式"""
auth_gssapi_kerberos.desc:
"""使用 GSSAPI/Kerberos 认证。"""
auth_gssapi_kerberos.label:
"""GSSAPI/Kerberos"""
consumer_mqtt_opts.desc:
"""本地 MQTT 消息转发。"""
consumer_mqtt_opts.label:
"""MQTT 转发"""
auth_kerberos_principal.desc:
"""SASL GSSAPI 认证方法的 Kerberos principal例如 <code>client_name@MY.KERBEROS.REALM.MYDOMAIN.COM</code>注意:这里使用的 realm 需要配置在 EMQX 服务器的 /etc/krb5.conf 中"""
auth_kerberos_principal.label:
"""Kerberos Principal"""
socket_opts.desc:
"""更多 Socket 参数设置。"""
socket_opts.label:
"""Socket 参数"""
consumer_mqtt_topic.desc:
"""设置 Kafka 消息向哪个本地 MQTT 主题转发消息。"""
consumer_mqtt_topic.label:
"""MQTT主题"""
consumer_offset_reset_policy.desc:
"""如不存在偏移量历史记录或历史记录失效,消费者应使用哪个偏移量开始消费。"""
consumer_offset_reset_policy.label:
"""偏移重置策略"""
partition_count_refresh_interval.desc:
"""配置 Kafka 刷新分区数量的时间间隔。
EMQX 发现 Kafka 分区数量增加后,会开始按 <code>partition_strategy<code> 配置,把消息发送到新的分区中。"""
partition_count_refresh_interval.label:
"""分区数量刷新间隔"""
max_batch_bytes.desc:
"""最大消息批量字节数。大多数 Kafka 环境的默认最低值是 1 MBEMQX 的默认值比 1 MB 更小是因为需要补偿 Kafka 消息编码所需要的额外字节(尤其是当每条消息都很小的情况下)。当单个消息的大小超过该限制时,它仍然会被发送,(相当于该批量中只有单个消息)。"""
max_batch_bytes.label:
"""最大批量字节数"""
required_acks.desc:
"""设置 Kafka leader 在返回给 EMQX 确认之前需要等待多少个 follower 的确认。
<code>all_isr</code>: 需要所有的在线复制者都确认。
<code>leader_only</code>: 仅需要分区 leader 确认。
<code>none</code>: 无需 Kafka 回复任何确认。"""
required_acks.label:
"""Kafka 确认数量"""
metadata_request_timeout.desc:
"""刷新元数据时最大等待时长。"""
metadata_request_timeout.label:
"""元数据请求超时"""
desc_type.desc:
"""桥接类型"""
desc_type.label:
"""桥接类型"""
socket_nodelay.desc:
"""设置true让系统内核立即发送。否则当需要发送的内容很少时可能会有一定延迟默认 40 毫秒)。"""
socket_nodelay.label:
"""是否关闭延迟发送"""
authentication.desc:
"""认证参数。"""
authentication.label:
"""认证"""
buffer_memory_overload_protection.desc:
"""缓存模式是 <code>memory</code> 或 <code>hybrid</code> 时适用。当系统处于高内存压力时,从队列中丢弃旧的消息以减缓内存增长。内存压力值由配置项 <code>sysmon.os.sysmem_high_watermark</code> 决定。注意,该配置仅在 Linux 系统中有效。"""
buffer_memory_overload_protection.label:
"""内存过载保护"""
auth_sasl_mechanism.desc:
"""SASL 认证方法名称。"""
auth_sasl_mechanism.label:
"""认证方法"""
config_enable.desc:
"""启用true或停用该falseKafka 数据桥接。"""
config_enable.label:
"""启用或停用"""
consumer_mqtt_payload.desc:
"""用于转换收到的 Kafka 消息的模板。 默认情况下,它将使用 JSON 格式来序列化来自 Kafka 的所有字段。 这些字段包括:<code>headers</code>:一个包含字符串键值对的 JSON 对象。
<code>key</code>Kafka 消息的键(使用选择的编码方式编码)。
<code>offset</code>:消息的偏移量。
<code>topic</code>Kafka 主题。
<code>ts</code>: 消息的时间戳。
<code>ts_type</code>:消息的时间戳类型,值可能是: <code>create</code> <code>append</code> 或 <code>undefined</code>。
<code>value</code>: Kafka 消息值(使用选择的编码方式编码)。"""
consumer_mqtt_payload.label:
"""MQTT Payload Template"""
consumer_opts.desc:
"""本地 MQTT 转发 和 Kafka 消费者配置。"""
consumer_opts.label:
"""MQTT 到 Kafka"""
kafka_consumer.desc:
"""Kafka 消费者配置。"""
kafka_consumer.label:
"""Kafka 消费者"""
desc_config.desc:
"""Kafka 桥接配置"""
desc_config.label:
"""Kafka 桥接配置"""
consumer_value_encoding_mode.desc:
"""通过 MQTT 转发之前,如何处理 Kafka 消息的 Value。<code>none</code> 使用 Kafka 消息中的 Value 原始值,不进行编码。 注意在这种情况下Value 必须是一个有效的 UTF-8 字符串。
<code>base64</code> 对收到的 Value 使用 base-64 编码。"""
consumer_value_encoding_mode.label:
"""Value 编码模式"""
buffer_per_partition_limit.desc:
"""为每个 Kafka 分区设置的最大缓存字节数。当超过这个上限之后,老的消息会被丢弃,为新的消息腾出空间。"""
buffer_per_partition_limit.label:
"""Kafka 分区缓存上限"""
bootstrap_hosts.desc:
"""用逗号分隔的 <code>host[:port]</code> 主机列表。默认端口号为 9092。"""
bootstrap_hosts.label:
"""主机列表"""
consumer_max_rejoin_attempts.desc:
"""消费组成员允许重新加入小组的最大次数。如超过该配置次数后仍未能成功加入消费组,则会在等待一段时间后重试。"""
consumer_max_rejoin_attempts.label:
"""最大的重新加入尝试"""
kafka_message_key.desc:
"""生成 Kafka 消息 Key 的模版。如果模版生成后为空值,则会使用 Kafka 的 <code>NULL</code> ,而非空字符串。"""
kafka_message_key.label:
"""消息的 Key"""
kafka_message.desc:
"""用于生成 Kafka 消息的模版。"""
kafka_message.label:
"""Kafka 消息模版"""
mqtt_topic.desc:
"""MQTT 主题数据源由桥接指定,或留空由规则动作指定。"""
mqtt_topic.label:
"""源 MQTT 主题"""
kafka_message_value.desc:
"""生成 Kafka 消息 Value 的模版。如果模版生成后为空值,则会使用 Kafka 的 <code>NULL</code>,而非空字符串。"""
kafka_message_value.label:
"""消息的 Value"""
partition_strategy.desc:
"""设置消息发布时应该如何选择 Kafka 分区。
<code>random</code>: 为每个消息随机选择一个分区。
<code>key_dispatch</code>: Hash Kafka message key to a partition number"""
partition_strategy.label:
"""分区选择策略"""
buffer_segment_bytes.desc:
"""当缓存模式是 <code>disk</code> 或 <code>hybrid</code> 时适用。该配置用于指定缓存到磁盘上的文件的大小。"""
buffer_segment_bytes.label:
"""缓存文件大小"""
consumer_kafka_opts.desc:
"""Kafka消费者配置。"""
consumer_kafka_opts.label:
"""Kafka 消费者"""
max_inflight.desc:
"""设置 Kafka 生产者(每个分区一个)在收到 Kafka 的确认前最多发送多少个请求(批量)。调大这个值通常可以增加吞吐量,但是,当该值设置大于 1 时存在消息乱序的风险。"""
max_inflight.label:
"""飞行窗口"""
auth_sasl_username.desc:
"""SASL 认证的用户名。"""
auth_sasl_username.label:
"""用户名"""
auth_kerberos_keytab_file.desc:
"""SASL GSSAPI 认证方法的 Kerberos keytab 文件。注意:该文件需要上传到 EMQX 服务器中,且运行 EMQX 服务的系统账户需要有读取权限。"""
auth_kerberos_keytab_file.label:
"""Kerberos keytab 文件"""
compression.desc:
"""压缩方法。"""
compression.label:
"""压缩"""
}