返回首页

gbase数据、南大通用产品文档:GBase8s管理要求

更新日期:2024年09月11日


GBase 8s JDBC Driver 程序员指南
南大通用数据技术股份有限公司
- 41 -
如果您想要 LDAP 服务器来存储 JDBC 可查找的 sqlhosts 信息,则必须满足下列要求:

必须在客户机可访问的计算机上安装 LDAP 服务器。LDAP 管理员必须在 LDAP
服务器中创建 IFXBASE 条目。
要获取关于 LDAP 目录服务器的更多信息,请参阅:

www.oracle.com

www.openldap.org

如果您想要使用 GBase 8s SqlhUpload 和 SqlhDelete 实用程序,其可从文本 ASCII
文件加载或删除 sqlhosts 条目,则 sqlhosts 文件中的 servicename 字段必须指定数据
库服务器端口号。要获取更多信息,请参阅 以 sqlhosts 数据来更新 LDAP 服务器
的实用程序。

LDAP 管理员必须确保在 sqlhosts 条目上允许匿名搜索。要获取更多信息,请参阅
LDAP 服务器资料。

Gnode 读取kafka 数据、gcluster 获取kafka 的topic 元数据信息时,都要作为client
与kafka 集群的broker 建立连接。Kafka 集群0.9 版本后支持SSL、
SASL/Kerberos、
SASL/PLAIN 三种认证机制。GBase 8a 采用SASL/GSSAPI(Kerberos)作为集群的
权限系统基础,
在kafka 集群的broker 与8a 集群
(client)
之间做认证。
对于带kerberos
认证功能的kafka 集群当前支持:

加载kerberos 认证的kafka 数据源
加载语法和示例可参考5.2.2.3.9 章节。

GBase Consumer 支持kerberos 认证的kafka 数据源
GBase kafka consumer 具体使用方法可参考5.2.5 章节。
注意
1. 当前只支持一套带kerberos 认证功能的kafka 集群
2. GBase 不能同时使用Kerberos 认证的kafka 集群和HDFS Kerberos 认证
3. gbase 与kafka 的kerberos 认证的实现需要集群节点已安装kerberos 客户
端,如未安装可参考4.9.12.1 章节。
GBase 8a 与kafka 的kerberos 认证配置方法:
如果Kafka server 端配置了kerberos 认证,则GBase 8a 需要正确设置principal 和
keytab 参数,
GBase 8a 连接kafka 集群时会使用配置的principal 和keytab 做kerberos
认证。

gbase_kafka_principal
用于指定kerberos 中的认证主体名称。在kafka 集群环境中合格的principal 格
式为username/hostname@REALM.COM,其中username 必须为kafka。该参数
可以通过8a 配置文件设置,也可以通过set sql 设置。

gbase_kafka_keytab
与指定principal 相对应的密钥表文件,内容是认证主体的密钥信息。该参数可

GBase 8a MPP Cluster 产品手册
4 管理员指南
文档版本953(2022-04-10)
南大通用数据技术股份有限公司
470
以通过8a 的配置文件设置,也可以通过set global 方式设置。

GBase
8a
ODBC 连接池是针对GBase
8a 开发的ODBC 数据库连接池。它主要
有用下几大功能:

缓存连接到GBase 8a 各节点的数据库连接。

负载功能,根据负载均衡策略将用户申请的连接分摊到GBase 8a
的各节点上。

周期性的维护GBase 8a ODBC 连接池中各连接的有效性,清理连
接池中无效的连接。

周期性的维护连接池中的空闲连接数,保证连接池中的空闲连接
数满足用户的设定最大/最小空闲连接数。

清理过期的连接。