返回首页

gbase数据、南大通用产品文档:GBase8a

更新日期:2024年09月11日

GBA-01-600
错误码
错误标识
错误信息
GBA-01-600
ER_INTERNAL
gbase internal error: %s
错误出现原因
内部错误码
分析与建议
根据错误信息寻求技术支持

GBase 8a MPP Cluster 产品手册
7 附录
文档版本953(2022-04-10)
南大通用数据技术股份有限公司
1717

进入同步工具conf 配置文件目录:
cd /opt/RTSyncInstall_8.6.13.1_build1/RTSync/conf
注意:
config_kafka_[queueName].properties 文件名中的queueName 必须与
config_task.xml 文件中的致。
1、编辑config_kafka_8tto8tMQ.properties 文件,修改配kafka 相关连接参

#vim config_kafka_8tto8tMQ.properties
只要修改以下几个参数红色字体参数:
1、topic.name 为Kafka 使用的topic 的名称,这个可以随意命名
topic.name=test1
2、topic.enable.auto.create 为是否自动创建topic 的开关,
值为true
topic.enable.auto.create=true
3、topic.replication.num 为topic 的复制数量,
取值范围为大于0 且小

GBase RTSync 同步工具手册
- 24 -
南大通用数据技术股份有限公司
于节点数量
topic.replication.num=1
4、bootstrap.servers 为每台Kafka 节点的IP 和端口号;
bootstrap.servers=172.16.3.19:9092,172.16.3.119:9092
5、zookeeper.connect 为每台Zookeeper 节点的IP 和端口号;
zookeeper.connect=172.16.3.19:2181,172.16.3.119:2181
6、group.id 为Kafka 的消费者的唯一组id;
group.id=db4topic
以下为测试环境config_kafka_8tto8tMQ.properties 文件参数配置:

GBase RTSync 同步工具手册
南大通用数据技术股份有限公司
- 25 -
topic.name=test
#is auto create topic name,default false
topic.enable.auto.create=true
#topic backup number, >0,<=brokers num
topic.replication.num=1
#producer conf
bootstrap.servers=172.16.3.19:9092,172.16.3.119:9092
#wait count to commit
kafka.batch.commit.count=1000
#wait time to commit
kafka.batch.commit.time=300
#kafka resend times
kafka.resend.max.retries=3
#kafka send result has confirm (send successed or send failed)
kafka.send.issuccess=true
#client send max data size. default:brokers message.max.bytes
send.data.max.size=104857600
#kafka
acknowledgement mechanism :0,1,all
kafka.acks=all
#kafka.producer.paramers=request.timeout.ms=60000;max.request.size=105857600;ac
ks=1;compression.type=gzip
kafka.producer.paramers=request.timeout.ms=30000;metadata.fetch.timeout.ms=6000
0;linger.ms=1
#consumer conf
zookeeper.connect=172.16.3.19:2181,172.16.3.119:2181
group.id=test
auto.commit.interval.ms=5000
auto.commit.offset.enable=false
zookeeper.sync.time.ms=3000
zookeeper.session.timeout.ms=6000
#message max size for consumer ,suggest :fetch.message.max.bytes =
send.data.max.size=1000000
fetch.message.max.bytes=104857600
kafka.consumer.paramers=

GBase RTSync 同步工具手册
- 26 -
南大通用数据技术股份有限公司

以下是 onparams 命令的示例:
onparams -a -d rootdbs -s 1000 # adds a 1000-KB log file to rootdbs
onparams -a -d rootdbs -i # inserts the log file after the current log
onparams -d -l 7 # drops log 7
onparams -p -d dbspace1 -s 3000 # resizes and moves physical-log to dbspace1
onparams -b -g 6 -n 3000 -r 2 -x 2.0 -m 1.0 # adds 3000 buffers of size
6K bytes each with 2 LRUS with maximum dirty of 2% and minimum dirty of 1%