返回首页

gbase数据、南大通用产品文档:GBase8a清理无效连接

更新日期:2024年09月11日

如果要连接池定期清理连接池中无效的连接,那么就要设置
POOL_MANAGER=1。清理无效连接功能不仅定期清理连接池中无效的连接,还定
期检测GBase
8a 各节点的状态。如果GBase
8a 有节点恢复可用,GBase
8a
ODBC
连接池将会缓存连接到该节点的ODBC 连接。同时通过设置
POOL_TEST_INVALID_CONN_PERIOD 的值可以设置清理无效连接的周期。
该周期默
认值为20 秒。如下所示:
"DRIVER=GBase 8a ODBC 8.3 Driver;UID=gbase;PWD=gbase20110531;"
"SERVER={192.168.111.96;192.168.5.212;192.168.7.174;192.168.7.17
3};"
"GCLUSTER_ID=gcluster;
POOL_MAX_ACTIVE_SIZE=80;POOL_MAX_IDLE=60;"
" POOL_MANAGER=1;POOL_TEST_INVALID_CONN_PERIOD=30;"

操作场景
gcadmin 命令是管理员对安装GBase UP 集群后运行状态进行的检查。
前提条件
gcadmin 命令在管理员用户(即安装时指定的dbaUser)下进行操作。
操作步骤
步骤1
GBase UP 的主要软件模块都运行在gbase 用户下。
每个节点的/opt 下会创建gcluster 子目录,每个data 节点的/opt 下会创建gnode 子目
录,GBase UP 的数据库用户,默认为root, 密码为空。
安装成功后,通过gcadmin 查看集群状况,如下:
$ gcadmin
CLUSTER STATE: ACTIVED
CLUSTER MODE: NORMAL

+==========================================================+
| GBASE COORDINATOR CLUSTER INFORMATION |
+==========================================================+
| NodeName | IpAddress |gcware |gcluster |DataState |
+--------------+---------------+-------+---------+----------+
| coordinator1 | 192.168.30.11 | OPEN | OPEN | 0 |
+--------------+--------------+-------+---------+----------+
| coordinator2 | 192.168.30.12 | OPEN | OPEN | 0 |
+--------------+--------------+-------+---------+----------+
| coordinator3 | 192.168.30.13 | OPEN | OPEN | 0 |
+--------------+---------------+-------+---------+----------+

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 84
+======================================================+
| GBASE DATA CLUSTER INFORMATION |
+======================================================+
|NodeName | IpAddress |gnode |syncserver |DataState |
+---------+--------------+------+-----------+----------+
| node1 | 192.168.30.11 | OPEN | OPEN | 0 |
+---------+--------------+------+-----------+----------+
| node2 | 192.168.30.12 | OPEN | OPEN | 0 |
+---------+--------------+------+-----------+----------+
| node3 | 192.168.30.13 | OPEN | OPEN | 0 |
+--------+------------+------+---------+---------+

操作结果
检查结果各节点状态“OPEN”,后续可正常使用GBase UP。
说明
更多gcadmin 子命令请参考管理员手册中gcadmin 命令说明。



GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 85

关闭CPU 超频
可在BIOS 中进行设置关闭CPU 超频。
开机自检画面,按DEL 键进入BIOS 设置界面。选择设置中的Load Default optimal
(读取默认设置),确认后退出。
Gcrecover
安装过程
Hadoop 生态的安装部署
具体请参考《GBase HD 安装手册》。
GBase8t 数据库及其他引擎的安装部署
GBase 8t 是GBase UP 的可选组件, 如果GBase UP 使用GBase8t 引擎创建数据库
和表,则需要连接GBase8t 数据库服务。
GBase UP 与GBase 8t 的连接方法具体参见“3.1.4 安装GBase UP 集群”章节中的
GBase8t 相关内容。
GBase 8t 数据库的安装请用户参考《GBase 8t 安装手册》的描述。
GBase UP 常用的引擎:

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 53
包括GBase 8a(内置)、 Hadoop 生态(必选)、Oracle(可选)、GBase8t(可选)。
另外GBase UP 今后可能还会扩展更多其他的第三方引擎库,这些引擎库的安装请
参考相关的官方文档,GBase UP 安装手册中不再介绍。
安装GBase UP 集群
安装各引擎客户端
GBase UP 通过不同的接口访问不同的引擎,所以在安装UP 之前,首先在各个UP
安装节点上安装各自的引擎客户端。
安装GBase Hadoop 生态 & GBase 8a 客户端
GBase UP 与Hadoop 之间采用libhdfs3 接口进行通讯,GBase UP 与 GBase 8a 采用
GBase 8a CAPI 接口进行通讯。这些客户端接口已经预置到GBase UP 的安装包中
了,不再需要用户人工安装,直接安装GBase UP 即可。
说明
GBase UP 与Hadoop 之间采用的标准的libhdfs3 接口,
如果第三方Hadoop 对于接口有修改,
则需要先对其进行测试,以便验证兼容性。
安装Oracle 客户端
需要在所有Coordinator 节点安装Oracle 客户端。
GBase UP 与Oracle 之间采用OCCI 进行通讯,用户可以从oracle 网站获取对应服
务版本的客户端安装包进行安装。
以oracle11g 为例,以下过程在root 用户执行。
安装包为:
oracle-instantclient11.2-basic-11.2.0.4.0-1.x86_64.rpm
安装命令为:
rpm -ivh oracle-instantclient11.2-basic-11.2.0.4.0-1.x86_64.rpm
安装成功后文件放在:

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 54
/usr/lib/oracle/11.2/client64/
将/usr/lib/oracle/11.2/client64/lib 追加到LD_LIBRARY_PATH 中,追加过程为:
在/etc/ld.so.conf.d/目录下创建扩展名为conf 的文件,例如up.conf。
编辑该文件,把/usr/lib/oracle/11.2/client64/lib 目录写入该文件,然后执行ldconfig
命令即可。
另外在Oracle 服务端需要执行如下操作:
1.
创建GBase 用户。
[oracle@zong-n17 admin]$ sqlplus / as sysdba
SQL> create user gbase identified by gbase;
User created.
SQL> grant connect,resource to gbase;
Grant succeeded.
SQL>quit
2.
配置tnsnames。
[oracle@zong-n17 admin]$ vim /opt/U01/ORAHOME/network/admin/tnsnames.ora
增加如下内容
MYORA =
(DESCRIPTION=
(ADDRESS_LIST=
(ADDRESS= (PROTOCOL=tcp) (HOST=zong-n17) (PORT=1521))
)
(CONNECT_DATA=
(SERVER = DEDICATED )
(SERVICE_NAME = ORCL)
)
)

注意
DEDICATED 专用服务器。
SERVICE_NAME 数据库名,通过show parameter service_name 查看。

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 55
3.
配置listener。
[oracle@zong-n17 admin]$ vim /opt/U01/ORAHOME/network/admin/listener.ora
输入如下内容:
LISTENER =
(DESCRIPTION=
(ADDRESS=(PROTOCOL=tcp)(HOST=zong-n17)(PORT=1521)))

SID_LIST_LISTENER=
(SID_LIST=
(SID_DESC=
#BEQUEATH CONFIG
(GLOBAL_DBNAME=ORCL)
(SID_NAME=ORCL)
(ORACLE_HOME=/opt/U01/ORAHOME)
#PRESPAWN CONFIG
(PRESPAWN_MAX=20)
(PRESPAWN_LIST=
(PRESPAWN_DESC=(PROTOCOL=tcp)(POOL_SIZE=2)(TIMEOUT=1))
)))

注意
GLOBAL_DBNAME 数据库名。
SID_NAME 通过show parameter service_name 查看。
4.
启动listener。
[oracle@zong-n17 bin]$ /opt/U01/ORAHOME/bin/lsnrctl start
安装客户端后续在建立orcale 引擎实例时,还需要输入oracle 服务端(oracle 节点)
的ip 地址端口号等信息,
才能将GBase UP 与Oracle 引擎正式链接起来,这部分参
见“3.5.3 加载引擎”。
安装GBase 8t 客户端
GBase UP 与GBase8t 之间采用ODBC 接口进行通讯。
用户可以从GBase 获取对应

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 56
服务版本的客户端安装包进行安装。
以GBase 8.5 版本为例:
安装包为:
GBase8t_ODBC_Patch.tar
安装命令为:先解压缩。
然后在../GBase8t_ODBC_Patch/下可以找到install.sh,这是ODBC 的安装程序。
最后执行:sh install.sh 完成安装。
安装成功后文件放在/usr/lib/gbase8t 以及/usr/include/gbase8t。
将/usr/lib/gbase8t 追加到LD_LIBRARY_PATH 中,
追加过程参考Oracle 客户端部分。

以上过程在root 用户执行。
与Oracle 不同GBase 8t 没有创建引擎实例的过程,GBase UP 与GBase8t 建立连接
需要手工配置下面这些文件:
环境变量$ODBCINI 所对应的文件,这个环境变量定义在/home/gbase/.gbase_profile
中默认为/opt/gcluster/server/odbc8t/odbc.ini。
[Infdrv1]
......
ServerName = *****
......
需要修改ServerName,ServerName 可以是8t 某个实例的名字或者是8t CM
(connection Manger)的名字或者是 8t CM group 的名字,具体按照现场环境配置。

环境变量$INFORMIXSQLHOSTS 所对应的文件,这个环境变量也定义在/home/
gbase/.gbase_profile 中,默认为/opt/gcluster/server/odbc8t/sqlhosts.ol_informix1210.
注意
文件名sqlhosts.ol_informix1210 用户不能手动修改。
将GBase8t 的服务的名称、IP 地址、端口号填写到上述文件中,
server_name:与$ODBCINI 保持一致

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 57
Server 如果是8t 某个实例则参考如下例子:
#ServerName onsoctcp ip port
ol_informix1210 onsoctcp 192.168.6.233 15308
ip: GBase8t 实例对应的ip 地址。
port: GBase8t 实例对应的服务端口号。
Server 如果是8t CM 则参考如下例子:
#ServerName onsoctcp ip port
CM1 onsoctcp 192.168.6.233 9088
ip: GBase8t CM 对应的ip 地址。
port: GBase8t CM 对应的服务端口号。
CM 可以与8t 实例部署在同一机器上也可以分开部署,部署CM 可以保证gbase8t
的高可用。
Server 如果是8t CM GROUP 则参考如下例子:
#ServerName onsoctcp ip port
SG01 group - - i=12,c=0
CM1 onsoctcp 192.168.6.233 9088 g=sg01
CM2 onsoctcp 192.168.6.234 9089 g=sg01
CM group 需要同时填写 group 的信息以及对应CM 的信息,部署CM group 既可
以保证gbase8t 的高可用也可以保证CM 的高可用。
上面仅仅是简单介绍UP 如何配置使用,至于gbase 8t 使用哪种数据复制方式保证
高可用,
gbase 8t 实例如何配置,
CM 如何配置如何启动,请参考GBase 8t 的相关
手册。
GBase UP 跨引擎数据迁移相关的安装
概述
用户的业务模型如果都是按引擎独立分离的,
不涉及将A 引擎的表的数据导入到B
引擎的表中则这部分可以忽略,但绝大部分用户场景其实都需要考虑。
GBase UP 是通过HDFS 这一中间媒介完成跨引擎数据迁移。

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 58
图 3-3 8a 和Oracle 之间的数据迁移:
GBase 8aMPP
Oracle
HDFS
ODCH

由于各个引擎对于HDFS 支持程度不同,这部分安装也有所不同。
关于Hadoop 生态 & GBase 8a 的安装
无论Hadoop 生态还是GBase 8a HDFS,都天然支持对于HDFS 的读写操作,所
以这里不需要任何额外的安装操作。
关于GBase8t 的安装
当前版本的GBase8t 引擎是无法支持对于HDFS 的读写操作的。
当需要将GBase8t 的数据导入到其他引擎时,GBaseUP 会调用GBase8t 的ODBC
接口将数据从GBase8t 中读出然后再写入到HDFS 中,这不需要额外的安装操作。

当需要将其他引擎的数据写入到GBase8t 中时,
GBaseUP 会先将数据从HDFS 读出
然后转换为GBase8t 能够读懂的数据文件格式放入GBase8t 节点上再由GBase8t 进
行加载。
这部分就需要在安装时创建并挂载共享目录。
1.
首先需要在服务端(GBase8t 上)创建共享目录:
a)
安装nfs:yum install nfs-util;
b)
创建共享目录:mkdir -p /opt/share;
c)
为共享目录添加权限:chmod 777 /opt/share;
d)
修改配置文件vi /etc/exports,增加内容:
/opt/share *(rw,async)
e)
启动nfs;
#/etc/init.d/rpcbind start
#/etc/init.d/rpcidmapd start
#/etc/init.d/nfs start

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 59

注意
GBase 8t 必须关闭防火墙。
2.
然后在客户端(GBase UP 上)挂载共享目录:
a)
创建挂载目录;
mkdir -p /opt/share8t
b)
然后挂载。
mount -t nfs 192.168.103.109:/opt/share /opt/share8t;

注意
当挂载的机器nfs 不正常时 会导致UP 所在集群无法查看,且ll /opt 和df 命令卡住。

3.
最后需要将共享目录配置到GBase UP 的配置文件GBase_8a_gcluster.cnf 中,
这部分参见“3.1.4.5 修改扩展配置文件”。
关于Oracle 的安装
与GBase8t 类似当需要将Oracle 的数据导入到其他引擎时,GBase UP 会调用
Oracle 的OCCI 接口将数据从Oracle 中读出然后再写入到HDFS 中,
这不需要额外
的安装操作。
当需要将其他引擎的数据写入到Oracle 中时,
这就需要到使用ODCH,
所以首先需
要在Oracle 端安装ODCH 工具。
ODCH 简介

ODCH:使用Oracle 连接HDFS 有个专项的解决方案(Oracle Direct Connect
or for Hadoop Distributed Files System)简称ODCH。

OSCH:Oracle SQL Connector for Hadoop Distributed Files System,用来连
接Oracle 数据库的软件包。

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 60
ODCH 部署
解压工具包:
将odch 工具解压到某一目录下。
(gbase 用户,如果没有gbase 用户也可以是别的用户)。
$ su gbase
$ cd /U01
$ mkdir connectors
$ cd connectors
$ unzip oraosch-2.3.0.zip
解压后的目录结构是:
/opt/U01/connectors/orahdfs-2.3.0
在该目录下存在的文件分别是:
drwxrwxrwx 2 gbase gbase 4096 Aug 24 06:17 bin
drwxrwxrwx 2 gbase gbase 4096 Aug 24 06:04 doc
drwxrwxrwx 2 gbase gbase 4096 Oct 16 2013 jlib
drwxrwxrwx 2 gbase gbase 4096 Aug 25 02:56 log
安装之后需要在命令行下执行如下指令:
$ sqlplus / as sysdba
SQL>@@$ORACLE_HOME/rdbms/admin/catalog.sql
SQL>@@$ORACLE_HOME/rdbms/admin/catproc.sql
SQL>@@$ORACLE_HOME/rdbms/admin/catexp.sql
否则select * from user_tables 都不能使用。
安装hadoop 客户端:
一般情况下Oracle 都是单独部署的,与hadoop 集群的任何一台都不在一起,那么
需要在Oracle 节点上安装hadoop 客户端。如果Oracle 与Hadoop 部署在同一节点
上则可以忽略这步。
1.
将hadoop 集群中任何一个节点的hadoop 目录copy 到Oracle 节点上。
例如:hapood 对应的目录为/opt/cloud/package/hadoop-2.7.3, 那么将其copy
到oracle 节点的/opt 下。

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 61
2.
将/opt/hadoop-2.7.3 权限改成777。
3.
修改:
/opt/hadoop-2.7.3/etc/hadoop/hadoop-env.sh
#export HADOOP_CONF_DIR=/opt/hadoop/bin/hadoop/etc/hadoop
export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop
4.
安装jdk。
makedir -p /opt/cloud/hdfs/tmp/java
Chmod 777 /opt/cloud/hdfs/tmp/java
5.
在oracle 服务器的/etc/hosts 文件需要添加hadoop 服务的ip 和主机名。
6.
重启oracle:
$ sqlplus / as sysdba
SQL> shutdown immediate
SQL> startup nomount
SQL> alter database mount;
SQL> alter database open;
修改环境变量:
修改的是gbase 用户的环境变量(可以是gbase 用户,也可不是,但要与上面的用
户一致)。
$ su gbase
$ vi ~/.bash_profile

export ORACLE_BASE=/U01
export ORACLE_HOME=$ORACLE_BASE/ORAHOME
export ORACLE_SID=test
export PATH=/usr/sbin:$PATH
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH= $ORACLE_HOME/lib: /lib64: /usr/local/lib64: /usr/X11R6/lib64/
export
CLASSPATH=
$ORACLE_HOME/JRE:
$ORACLE_HOME/jlib:
$ORACLE_HOME/rdbms/jlib
export HADOOP_HOME=/opt/hadoop-2.7.3
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export OSCH_HOME=/opt/U01/connectors/orahdfs-2.3.0
export ORAHDFS_JAR=$OSCH_HOME/jlib/orahdfs.jar
export HDFS_BIN_PATH=$OSCH_HOME/bin
export PATH=$PATH:/opt/hadoop-2.7.3/bin

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 62
export JA
VA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.45.x86_64
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$OSCH_HOME/jlib/*
以上斜体字体均为按实际环境修改为准。
修改用户属组:
说明
因为之前的hadoop 安装在gbase 用户下,而oracle 安装在了oracle 系统用户下,为了操作
方便,使gbase 用户有操作oracle 数据库的权限,现在修改系统gbase 用户属组,添加到和
oracle 同样的用户组下。
以下以本机器为例:
# id gbase uid=500(gbase) gid=500(gbase) groups=500(gbase), 502(oinstall),503(dba)
# id oracle uid=502(oracle) gid=502(oinstall), groups=502(oinstall),503(dba)
1.
修改用户属组:
# vi /etc/group
2.
修改成如下样子:
oinstall:x:502:gbase
dba:x:503:oracle,gbase
3.
测试gbase 用户能访问oracle:
$ su gbase
$ sqlplus / as sysdba
SQL*Plus: Release 11.2.0.1.0 Production on Thu Aug 25 06:28:24 2016
Copyright (c) 1982, 2009, Oracle. All rights reserved.
Connected to:
Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64bit
Production
With
the
Partitioning, Oracle Label Security, OLAP, Data
Mining and Real Application Testing options
SQL> show parameter db_name;
NAME



TYPE
VALUE
-----------------------------------------------------------------------
db_name

string
ywtest
配置hdfs_stream script 文件:
添加以下内容:

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 63
$ su gbase
$ vi $OSCH_HOME/bin/hdfs_stream
export HADOOP_HOME=/opt/hadoop-2.7.3
export OSCH_HOME=/opt/U01/connectors/orahdfs-2.3.0
export PATH=/usr/bin:/bin:$HADOOP_HOME/bin
export KRB5CCNAME=krb5cc_%{pid}
保存后执行:
$ $OSCH_HOME/bin/hdfs_stream
以上斜体字体均按实际环境为配置准。
确保oracle 用户对$OSCH_HOME/logs 目录有读写权限:
因为oracle 用户需要在$OSCH_HOME 目录中创建log/bad 文件,所以确保oracle
用户对$OSCH_HOME/logs 目录有读写权限。
# chmod –R 777 /opt/U01/connectors/
# su oracle
$ cd /opt/U01/connectors/orahdfs-2.3.0/log
$ touch test
$ rm test
以上斜体字体目录均按实际环境配置为准。
配置操作系统目录和数据库的Directory 目录:
1.
创建所有的系统目录
# mkdir –p /opt/U01/connectors/orahdfs-2.3.0/logs
# mkdir –p /opt/U01/connectors/orahdfs-2.3.0/extdir
# chmod 777 /opt/U01/connectors/orahdfs-2.3.0/logs
#chmod 777 /opt/U01/connectors/orahdfs-2.3.0/extdir
以上斜体字体目录均按实际环境配置为准。
2.
创建oracle Directory 对象:
$ sqlplus / as sysdba
SQL>create or replace directory ODCH_LOG_DIR as '/opt/U01/



/orahdfs-2.3.0/logs';

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 64
SQL >grant read,write on directory ODCH_LOG_DIR to gbase;
SQL >create or replace directory ODCH_DATA_DIR as


'/opt/U01/connectors/orahdfs-2.3.0/extdir';
SQL>grant read,write on directory ODCH_DATA_DIR to gbase;
SQL>create or replace directory HDFS_BIN_PATH as
'/opt/U01/connectors/orahdfs-2.3.0/bin';
SQL>grant execute on directory HDFS_BIN_PATH to gbase;
SQL>grant read,write on directory HDFS_BIN_PATH to gbase;
3.
目录对象说明

HDFS_BIN_PATH: hdfs_stream 脚本所在目录

ODCH_DATA_DIR: 用来存放”位置文件”(location files)的目录。”位置文
件”(location files)是一个配置文件,里面包含HDFS 的文件路径/文件名
以及文件编码格式。

ODCH_LOG_DIR: Oracle 用来存放外部表的log、bad 等文件的目录。
创建并挂载共享目录:
与GBase8t 相同这部分就需要在安装时创建并挂载共享目录。
1.
首先需要在服务端部署(oracle 服务器上)

安装nfs:
yum install nfs-util

创建共享目录。
mkdir -p /opt/U01/connectors/orahdfs-2.3.0/extdir
这个目录其实之前已经创建了。

为共享目录添加权限。
chmod 777 /opt/U01/connectors/orahdfs-2.3.0/extdir

修改配置文件vi /etc/exports,增加内容。
/opt/U01/connectors/orahdfs-2.3.0/extdir *(rw,async)

启动nfs。
#/etc/init.d/rpcbind start
#/etc/init.d/rpcidmapd start
#/etc/init.d/nfs start

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 65
注意
oracle 必须关闭防火墙。
2.
然后在客户端(GBase UP 上)挂载共享目录

创建挂载目录 mkdir -p /opt/shareora

然后挂载
mount -t nfs 192.168.103.109:/opt/U01/connectors/orahdfs-2.3.0/extdir/opt/shareora;
最后需要将共享目录作为参数在创建Oracle 引擎实例时指定,这部分参见“3.1.3
加载引擎”。
添加hive udf 函数:
获取hive_udf_add_enclosed.jar 包 ,将其上传到hdfs:///home/gbase 目录下。

$hdfs dfs -mkdir -p /home/gbase
$hdfs dfs -put hive_udf_add_enclosed.jar /home/gbase
在UP 上运行create function。
gbase >create function add_enclosed returns string as 'com.udf.
UDF_ADD_ENCLOSED' using jar 'hdfs:///home/gbase/hive_udf_add_enclosed.jar';
ODCH 部署问题及解决方法:
1. 在/opt/U01/connectors/orahdfs-2.3.0/extdir 目录下查找.log 文件。
当文件中内容出现****.dat in ODCH_DATA_DIR not found 的报错信息,是因
为共享目录没有挂载好,需要进行检查。

检查当前实例的路径信息是否与挂载的一致。


GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 66
最后判断下/opt/U01/connectors/orahdfs-2.3.0/extdir 是否是777 权限,

要改成777 权限。
2. 当执行insert into t_oracle select * from t_8a;报错
KUP-04095: preprocessor command /u01/connectors/orahdfs-2.3.0/bin/hdfs_stream encountered
error "which: no hadoop in (/usr/bin:/bin)
表示hdfs_stream 没有找到hadoop 的path。
解决方案:
set gcluster_executor_debug=1;

再次执行insert into t_oracle select * from t_8a;
此时会在/opt/U01/connectors/orahdfs-2.3.0/extdir 目录下生成****.
dat 文件;

行如下指令:
u01/connectors/orahdfs-2.3.0/bin/hdfs_stream
/opt/U01/connectors/orahdfs-2.3.0/extdir/****.dat;

此时会显示导出的t_8a 中的数据。
3. 如下用例:当test.t_gbase 中的表有数据时,倒入到db.oracle.t_oracle 后
显示影响行数为0。

解决方案:

set gcluster_executor_debug=1;

把/opt/U01/connectors/orahdfs-2.3.0/log 中的数据清空。

再次执行insert into t_oracle select * from t_8a;
此时会在/opt/U01/connectors/orahdfs-2.3.0/log 目录下生成****.log 文件

查看该log 中的内容。
如下:
Error creating temp dir in java.io.tmpdir /opt/cloud/hdfs/tmp/java due to Permission denied
此时需要将/opt/cloud/hdfs/tmp/java 的权限改成777 即可。
前面的准备工作都做完了,下面开始正式安装GBase UP。

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 67
获取安装文件
将安装包的压缩文件:
GBase UP---.tar.bz2
(例如:GBaseUP-NoLicense-9.5.3.22-redhat7.3-x86_64.tar.bz2)复制到文件系
统的某个目录下。
进入该目录(下文将以安装包放在/root 目录下为例),在命令行模式下使用
tar 命令进行解压。
解压命令如下:
# tar xfj GBaseUP-NoLicense-9.5.3.22-redhat7.3-x86_64.tar.bz2
解压后,将会在解压目录下生成gcinstall 目录。
修改安装参数文件
根据安装GBase UP 的服务器硬件配置不同,将服务器分为常规服务器和高配
服务器,GBase UP V9.5.3 版本支持安装文件的参数配置针对不同配置的服务
器给予不同的安装方案,用以最大限度发挥服务器硬件功效,提升GBase UP
的性能。
高配服务器:非统一内存访问架构(NUMA 架构),内存大于256G,CPU 逻辑核
数大于32
低于上述高配服务器配置的归为常规服务器。
GBase UP 高配服务器部署原理是通过内嵌的GBase 8a MPP Cluster 单服务器
多gnode 实现,
具体可以参考
《GBase 8a MPP Cluster V953 多实例最佳实践》


常规服务器安装文件参数配置
用户在安装集群前,需要根据实际情况,对安装参数文件进行修改。安装参数
文件存在于解压安装包文件后的gcinstall/这个路径里,
安装参数文件的文件
名为:demo.options。
进入解压后的gcinstall 目录,根据实际的集群环境修改安装参数文件demo.
options,具体命令如下:
# cd gcinstall

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 68
# vi demo.options
installPrefix= /opt
coordinateHost = 192.168.30.11,192.168.30.12,192.168.30.13
coordinateHostNodeID = 11,12,13
dataHost = 192.168.30.11,192.168.30.12,192.168.30.13
#existCoordinateHost =
#existGcwareHost=
#existDataHost =
gcwareHost = 192.168.30.11,192.168.30.12,192.168.30.13
gcwareHostNodeID = 11,12,13
dbaUser = gbase
dbaGroup = gbase
dbaPwd = 'gbase'
rootPwd = '111111'
#rootPwdFile = rootPwd.json
hadoopextendcfg = false
gbase8textendcfg = false
安装参数说明

installPrefix:指定安装目录。

coordinateHost :所有coordinator 节点 IP 列表,IP 地址之间用“,”分隔。

coordinateHostNodeID:每个Coordinator 节点的nodeid,在IPV6 和域名安装时,必须
指定,IPV4 安装时可不指定,与coordinateHost 中列出的节点列表一一对应, 之间用
“,”分隔;

dataHost:所有data 节点IP 列表,IP 地址之间用“,”分隔。

gcwareHost:所有gcware 节点IP 列表,IP 地址之间用“,”分隔,建议gcwar
e 节点IP 与coordinateHost 节点IP 一致。

gcwareHostNodeID:每个gcware 节点的nodeid,在IPV6 和域名安装时,必须指定,I
PV4 安装时可不指定,与gcwareHost 中列出的节点列表一一对应, 之间用“,”分隔;

existCoordinateHost:所有已存在的coordinator 节点IP 列表,IP 地址之间
用“,”分隔。

existDataHost:所有已存在的data 节点IP 列表,IP 地址之间用“,”分隔。

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 69

dbaUser:集群运行时使用的操作系统用户名。

dbaGroup:集群运行时使用的操作系统用户所属的组名。

dbaPwd:集群运行时使用的操作系统用户的密码。

rootPwd:安装集群节点机器中linux 操作系统中root 用户的统一的密码。
该参数目前只有升级才会用到且只有旧版本升级到952 才需要。

hadoopextendcfg:是否增加hive 扩展配置参数,设为true 则会安装hive。


gbase8textendcfg :是否增加GBase 8t 扩展配置参数。
用户可根据实际情况修改以上参数。
注意

以上涉及密码的参数,
如果设置值包含特殊符号,
需要使用''包围符,
无需转义;


建议coordinator 集群节点数不超过64 个,data 集群节点数不超过300 个;
修改结果举例如下:
示例

示例1:全新安装
installPrefix= /opt
coordinateHost = 192.168.30.11,192.168.30.12,192.168.30.13
coordinateHostNodeID = 11,12,13
dataHost = 192.168.30.11,192.168.30.12,192.168.30.13
#existCoordinateHost =
#existGcwareHost=
#existDataHost =
gcwareHost = 192.168.30.11,192.168.30.12,192.168.30.13
gcwareHostNodeID = 11,12,13
dbaUser = gbase
dbaGroup = gbase
dbaPwd = 'gbase'
rootPwd = '111111'
#rootPwdFile = rootPwd.json
hadoopextendcfg = false

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 70
gbase8textendcfg = false

示例2:增加coordinator 和data 节点
注:不支持新增gcware 节点。
installPrefix= /opt
coordinateHost = 192.168.30.14
dataHost = 192.168.30.14
existCoordinateHost = 192.168.30.11,192.168.30.12,192.168.30.13
existDataHost = 192.168.30.11,192.168.30.12,192.168.30.13
existGcwareHost=192.168.30.11,192.168.30.12,192.168.30.13
dbaUser = gbase
dbaGroup = gbase
dbaPwd = gbase
rootPwd = 111111
hadoopextendcfg = false
gbase8textendcfg = false
高配服务器安装文件参数配置(可选)
GBase UP 建议在高配服务器上,一台服务器部署2~4 个gnode 节点,并且对
于NUMA 架构下建议每台服务器的多个gnode 节点服务绑定该服务器的不同nu
ma 节点;
以每台服务器部署两个gnode 节点为例,
每个gnode 节点需要独立的IP,
给服
务器两个网卡设置独立的IP,如:
服务器一IP:172.16.3.61, 172.16.3.64
服务器二IP:172.16.3.62, 172.16.3.65
installPrefix= /opt
coordinateHost = 172.16.3.61,172.16.3.62
coordinateHostNodeID = 61,62
dataHost = 172.16.3.61,172.16.3.64,172.16.3.62,172.16.3.65
#existCoordinateHost =
#existDataHost =
#existGcwareHost=
gcwareHost = 172.16.3.61,172.16.3.62
#gcwareHostNodeID =

GBase UP 产品手册 3 软件安装

文档版本04(2021-04-21) 南大通用数据技术股份有限公司 71
dbaUser = gbase
dbaGroup = gbase
dbaPwd = 'gbase'
rootPwd = '111111'
hadoopextendcfg = false
gbase8textendcfg = false
NUMA 绑定参考3.5.3 高配服务器NUMA 绑定
修改扩展配置文件
关于Hadoop 相关配置
在解压目录gcinstall 下,
如果demo.options 设置了gbase8textendcfg = true,
则修改
扩展配置文件hadoopextend.cfg。
说明:依据“3.1.1 安装Hadoop 生态”章节中的配置信息进行修改。
需修改项如下:

配置项hive_server_name,修改为启动hiveserver2 服务的机器IP;

hive_hdfs_user_name 和hive_user_name 设置为hadoop 用户;

hive_auth_mode 为hive 的认证方式;

hive_thrift_client_version 可根据hive 的版本做相应修改,如果安装的hive 为