#目录划分
# 服务器目录规划
在安装YashanDB服务端之前,需要先规划以下目录,并对安装用户进行授权。
安装用户必须具备以下所有目录的全部权限。
# 安装目录
YashanDB采用集群多服务器并行安装模式,只需在一台服务器上创建安装目录,用于下载和解压软件包。
本安装手册中,安装目录规划在/home/yashan下,由yashan用户执行软件包下载时自行创建。
# HOME目录和DATA目录
所有YashanDB的实例节点都必须规划HOME目录和DATA目录,且安装用户必须拥有相应目录的全部权限。
HOME目录:YashanDB的产品目录,用于存放YashanDB所提供的命令、数据库运行所需的库及各关键组件。在安装操作中,该目录将作为--install-path参数的值。安装完成后YashanDB会在该目录下按规则生成$YASDB_HOME。
DATA目录:YashanDB的数据目录,用于存放数据库的各类系统数据文件、部分日志文件(具体请查阅日志管理)和配置文件,用户数据也默认存储在该目录下。但对于共享集群,所有的数据文件和redo文件均需保存在共享存储上,DATA目录将只用于存储实例运行相关的配置文件、日志文件等数据。在安装操作中,该目录将作为--data-path参数的值。安装完成后YashanDB会在该目录下按规则生成$YASDB_DATA。
本安装手册中,HOME目录和DATA目录的示例值均规划在/data/yashan下,可执行如下命令创建相应路径并授权:
## 创建/data/yashan目录
# mkdir -p /data/yashan
## 直接基于父目录进行授权即可
# chown -R yashan:yashan /data/yashan
## 创建HOME目录,完整的HOME目录为/data/yashan/yasdb_home
# su yashan
$ cd /data/yashan
$ mkdir yasdb_home
# 创建DATA目录,完整的DATA目录为/data/yashan/yasdb_data
$ mkdir yasdb_data
# 运行日志目录
YashanDB的运行日志目录,用于存放数据库运行过程中产生的日志文件,包括数据库的run.log和slow.log、yasom和yasagent的日志。
为避免运行日志与数据文件IO相互影响,建议将数据库的运行日志目录与DATA目录配置到不同的物理盘上。同时,运行日志目录可以按需根据以下场景进行规划:
按规划统一存放
规划一个目录,用于存放run.log、slow.log以及yasom和yasagent的日志。
# 创建log目录,完整的日志目录为/data/yashan/log $ cd /data/yashan $ mkdir log在安装操作中,该目录将作为--data-path参数的值。
按规划分开存放
采用默认机制
不规划运行日志目录,YashanDB将默认在HOME目录下创建子目录log(根据本手册示例,则为/data/yashan/yasdb_home/log)存放run.log、slow.log以及yasom和yasagent的日志。
在安装操作中,无需指定--log-path参数。
# 绑定LUN(共享集群部署)
本步骤仅适用于使用共享存储的共享集群部署场景,其他场景请略过。
实际部署环境可能与示例不同,请参考示例调整,请勿将以下配置直接用于生产环境。若为主备集群部署,需为主集群和备集群分别规划并绑定LUN。
YashanDB要求共享存储规划如下两类磁盘,且所有磁盘应被绑定至同一目录,该目录将作为--disk-found-path参数的值,本文采用默认值/dev/yfs作为示例。
系统盘
用于集群管理,仅支持1、3或5块相同大小的磁盘,每块磁盘容量至少1G(当系统盘数量为1块,并且AU Size配置为32M时,系统盘大小至少为2G),此类磁盘的绝对路径将作为--system-data参数的值,以
,分隔多个磁盘,例如--system-data /dev/yfs/sys0,/dev/yfs/sys1,/dev/yfs/sys2。规划的系统盘个数会影响系统盘组的冗余度(redundancy),1、3或5块系统盘分别对应的冗余度为EXTERNAL、NORMAL或HIGH。数据盘
用于保存集群业务数据,1块或多块相同大小的磁盘,请根据实际业务需求规划其数量和容量,此类磁盘的绝对路径将作为--data参数的值,以
,分隔多个磁盘,例如--data /dev/yfs/data0,/dev/yfs/data1,/dev/yfs/data2。
本文不对共享存储的组网和存储划分提供操作指引,请管理员根据共享存储厂商提供的安装指导操作。本文假定3块系统盘 + 1块数据盘,共享存储上已划分4个LUN并已通过多路径的方式挂载,规划如下:
| LUN | 磁盘类型 | 规划绑定路径(示例值) |
|---|---|---|
| /dev/mapper/lun03-sys0 | 系统盘 | /dev/yfs/sys0 |
| /dev/mapper/lun04-sys1 | 系统盘 | /dev/yfs/sys1 |
| /dev/mapper/lun05-sys2 | 系统盘 | /dev/yfs/sys2 |
| /dev/mapper/lun01-data0 | 数据盘 | /dev/yfs/data0 |
绑定目录(/dev/yfs)与磁盘名称(data0、sys0等)均为示例值,请根据实际业务需求调整,但命名时需注意:
- 绑定后磁盘的绝对路径(例如
/dev/yfs/sys0)长度不得超过31字节。 - 绑定目录和磁盘的绝对路径均将作为
yasboot package ce gen命令的相应参数值,如有修改,请在执行yasboot package ce gen时使用实际值。
# 首次绑定
本文将介绍通过多路径绑定(推荐)和通过SCSI设备的WWID绑定两种方式,主要差异在于:
| 序号 | 步骤 | 差异说明 |
|---|---|---|
| 0 | 前提条件 | 通过SCSI设备的WWID绑定存储设备时,要求目标路径(例如/dev)下各设备的WWID唯一,否则会绑定不成功。 |
| 1 | 步骤1:生成配置文件 | 二者genDevRuleByUUID.sh脚本内容不同,对应着执行脚本生成的配置文件yashan-device-rule.rules内容亦不同。 |
| 2 | 步骤4(可选):修改多路径配置文件 | 如果通过多路径绑定存储设备且需要使用基于SCSI持久预留的IO Fencing功能,使用该功能前必须先在共享集群的每个服务器上修改多路径配置文件。 |
Caution:
通过SCSI设备的WWID绑定存储设备不满足高可用需求,不建议用于生产环境。
本文仅以CentOS和KylinOS V10为例介绍操作流程,实际使用过程中可能存在细微差异或执行结果不一致,建议参考对应操作系统的官方指引或联系系统服务商解决。
请选择合适的方式,以root用户在共享集群的所有服务器上执行对应操作绑定LUN。
# 方式一:通过多路径绑定
# 步骤1:生成配置文件
以root用户登录服务器。
在root目录下创建名称为
genDevRuleByUUID.sh的脚本:# cd ~ # vi genDevRuleByUUID.sh输入如下内容,并根据部署环境修改
DEVICES为各设备路径,修改TARGETS为各设备绑定名称,名称应与设备路径一一对应,修改YFS_DISK_DIR为绑定目录,保存并退出。#/bin/bash # 请修改为各设备路径 DEVICES=("/dev/mapper/lun01-data0" "/dev/mapper/lun03-sys0" "/dev/mapper/lun04-sys1" "/dev/mapper/lun05-sys2") # 请按DEVICES数组顺序指定这些设备绑定的名称,且建议指定为与业务相关的名称 TARGETS=("data0" "sys0" "sys1" "sys2") # 指定绑定的目录 YFS_DISK_DIR="yfs" # 请保持默认,请确保yashan用户已存在 USER="yashan" GROUP="yashan" UGROUP="$USER:$GROUP" if [ ${#TARGETS[@]} != ${#DEVICES[@]} ] then echo "DEVICES and TARGETS count does not match" exit 1 fi if [ ${#TARGETS[@]} == 0 ] then echo "no targets found" exit 1 fi curDir=$(cd "$(dirname "$0")";pwd) rm -f $curDir/yashan-device-rule.rules count=${#TARGETS[@]} for ((i = 0; i < $count; i ++)) do device=${DEVICES[$i]} target_name=${TARGETS[$i]} target="${YFS_DISK_DIR}/${target_name}" str1="$device:`udevadm info --query=all --name=$device | grep DM_UUID`" str2=${str1#*=} echo "KERNEL==\"dm-*\",ENV{DM_UUID}==\"${str2}\",SYMLINK+=\"$target\",OWNER=\"$USER\",GROUP=\"$GROUP\",MODE=\"0666\",RUN+=\"/bin/sh -c 'chown -R $UGROUP $target'\"" >> $curDir/yashan-device-rule.rules done执行脚本,生成配置文件:
# sh ./genDevRuleByUUID.sh脚本执行成功后,会在当前路径生成名为yashan-device-rule.rules的绑定配置文件,内容如下,实际部署时内容可能有差异:
# cat yashan-device-rule.rules KERNEL=="dm-*",ENV{DM_UUID}=="mpath-36d039ea000a2231f0000e7d9668d7b4a",SYMLINK+="yfs/data0",OWNER="yashan",GROUP="yashan",MODE="0666",RUN+="/bin/sh -c 'chown -R yashan:yashan /dev/yfs/data0'" KERNEL=="dm-*",ENV{DM_UUID}=="mpath-36d039ea000a2231f0000e7dd668d7b68",SYMLINK+="yfs/sys0",OWNER="yashan",GROUP="yashan",MODE="0666",RUN+="/bin/sh -c 'chown -R yashan:yashan /dev/yfs/sys0'" KERNEL=="dm-*",ENV{DM_UUID}=="mpath-36d039ea000a233b90000e358668d7caf",SYMLINK+="yfs/sys1",OWNER="yashan",GROUP="yashan",MODE="0666",RUN+="/bin/sh -c 'chown -R yashan:yashan /dev/yfs/sys1'" KERNEL=="dm-*",ENV{DM_UUID}=="mpath-36d039ea000a233b90000e35a668d7cbf",SYMLINK+="yfs/sys2",OWNER="yashan",GROUP="yashan",MODE="0666",RUN+="/bin/sh -c 'chown -R yashan:yashan /dev/yfs/sys2'"SYMLINK为绑定设备的别名,检查是否为预期绑定目标。
# 步骤2:绑定存储设备
将配置文件移动至/etc/udev/rules.d目录下。
# cp yashan-device-rule.rules /etc/udev/rules.d/yashan-device-rule.rules加载udev配置。
# udevadm control --reload-rules绑定存储设备。
## 场景1:绑定规则文件中的所有设备 # udevadm trigger ## 场景2:绑定规则文件中的某一设备 # udevadm trigger --sysname-match=sdf
# 步骤3:检查绑定结果
执行如下命令,确认所有绑定已生效,用户和组均为
yashan:# ls -l /dev/yfs/* lrw-rw-rw- 1 yashan yashan 7 Jul 11 14:44 data0 -> ../dm-5 lrw-rw-rw- 1 yashan yashan 7 Jul 11 14:44 sys0 -> ../dm-7 lrw-rw-rw- 1 yashan yashan 7 Jul 11 14:44 sys1 -> ../dm-4 lrw-rw-rw- 1 yashan yashan 7 Jul 11 14:44 sys2 -> ../dm-6并检查它们指向设备的用户和组均为
yashan,且权限为0666:# ls -l /dev/dm-4 brw-rw-rw- 1 yashan yashan 253, 4 Jul 11 14:44 /dev/dm-4 # 其他设备类似在集群所有服务器上执行以下命令,确认各服务器上所有绑定的多路径WWID一致。
# 对比各服务器上的输出结果是否对应一致 # /lib/udev/scsi_id --whitelisted --device=/dev/yfs/data # /lib/udev/scsi_id --whitelisted --device=/dev/yfs/sys0 # /lib/udev/scsi_id --whitelisted --device=/dev/yfs/sys1 # /lib/udev/scsi_id --whitelisted --device=/dev/yfs/sys2若两台服务器上同一路经所对应的WWID不一致,说明其挂载的磁阵不是同一个LUN,需联系网络管理员处理。
# 步骤4(可选):修改多路径配置文件
通过多路径绑定存储设备时,在使用基于SCSI持久预留的IO Fencing功能前,必须在共享集群的每台服务器上完成本操作。
确认已安装mpathpersist工具。
# mpathpersist -h修改每个服务器的/etc/multipath.conf文件,添加"reservation_key file"一项到“defaults”部分。
示例非完整文件内容,实际修改时仅按说明添加选项,请勿修改其他配置项。
defaults { reservation_key file }
# 方式二:通过SCSI设备的WWID绑定
# 步骤1:生成配置文件
以root用户登录服务器。
在root目录下创建名称为
genDevRuleByUUID.sh的脚本:# cd ~ # vi genDevRuleByUUID.sh输入如下内容,并根据部署环境修改
DEVICES为各设备路径,修改TARGETS为各设备绑定名称,名称应与设备路径一一对应,修改YFS_DISK_DIR为绑定目录,保存并退出。#/bin/bash # 请修改为各设备路径 DEVICES=("/dev/sdc" "/dev/sdd" "/dev/sde" "/dev/sdf") # 请按DEVICES数组顺序指定这些设备绑定的名称,且建议指定为与业务相关的名称 TARGETS=("data0" "sys0" "sys1" "sys2") # 指定绑定的目录 YFS_DISK_DIR="yfs" # 请保持默认,请确保yashan用户已存在 USER="yashan" GROUP="yashan" UGROUP="$USER:$GROUP" if [ ${#TARGETS[@]} != ${#DEVICES[@]} ] then echo "DEVICES and TARGETS count does not match" exit 1 fi if [ ${#TARGETS[@]} == 0 ] then echo "no targets found" exit 1 fi curDir=$(cd "$(dirname "$0")";pwd) rm -f $curDir/yashan-device-rule.rules count=${#TARGETS[@]} for ((i = 0; i < $count; i ++)) do device=${DEVICES[$i]} target_name=${TARGETS[$i]} target="${YFS_DISK_DIR}/${target_name}" echo "KERNEL==\"sd*\", SUBSYSTEM==\"block\", PROGRAM==\"/usr/lib/udev/scsi_id -g -u -d /dev/\$parent\", RESULT==\"`/usr/lib/udev/scsi_id -g -u -d $device`\",SYMLINK+=\"$target\",OWNER=\"$USER\", GROUP=\"$GROUP\", MODE=\"0666\", RUN+=\"/bin/sh -c 'chown -R $UGROUP /dev/$target'\"" >> $curDir/yashan-device-rule.rules done执行脚本,生成配置文件:
# sh ./genDevRuleByUUID.sh脚本执行成功后,会在当前路径生成名为yashan-device-rule.rules的绑定配置文件,内容如下,实际部署时内容可能有差异:
# cat yashan-device-rule.rules KERNEL=="sd*", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="36a01c8d100cd2c1b777f88dd000002b4",SYMLINK+="yfs/data0",OWNER="yashan", GROUP="yashan", MODE="0666", RUN+="/bin/sh -c 'chown -R yashan:yashan /dev/yfs/data0'" KERNEL=="sd*", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="36a01c8d100cd2c1b777f88be000002b3",SYMLINK+="yfs/sys0",OWNER="yashan", GROUP="yashan", MODE="0666", RUN+="/bin/sh -c 'chown -R yashan:yashan /dev/yfs/data0'" KERNEL=="sd*", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="36a01c8d100cd2c1b777f88be000002b5",SYMLINK+="yfs/sys1",OWNER="yashan", GROUP="yashan", MODE="0666", RUN+="/bin/sh -c 'chown -R yashan:yashan /dev/yfs/data0'" KERNEL=="sd*", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="36a01c8d100cd2c1b777f88be000002b6",SYMLINK+="yfs/sys2",OWNER="yashan", GROUP="yashan", MODE="0666", RUN+="/bin/sh -c 'chown -R yashan:yashan /dev/yfs/data0'"
# 步骤2:绑定存储设备
将配置文件移动至/etc/udev/rules.d目录下。
# cp yashan-device-rule.rules /etc/udev/rules.d/yashan-device-rule.rules加载udev配置。
# udevadm control --reload-rules绑定存储设备。
## 场景1:绑定规则文件中的所有设备 # udevadm trigger ## 场景2:绑定规则文件中的某一设备 # udevadm trigger --sysname-match=sdf
# 步骤3:检查绑定结果
执行如下命令,确认所有绑定已生效,用户和组均为
yashan:# ls -l /dev/yfs/* lrw-rw-rw- 1 yashan yashan 7 Jul 11 14:44 data0 -> ../dm-5 lrw-rw-rw- 1 yashan yashan 7 Jul 11 14:44 sys0 -> ../dm-7 lrw-rw-rw- 1 yashan yashan 7 Jul 11 14:44 sys1 -> ../dm-4 lrw-rw-rw- 1 yashan yashan 7 Jul 11 14:44 sys2 -> ../dm-6并检查它们指向设备的用户和组均为
yashan,且权限为0666:# ls -l /dev/dm-4 brw-rw-rw- 1 yashan yashan 253, 4 Jul 11 14:44 /dev/dm-4 # 其他设备类似在集群所有服务器上执行以下命令,确认各服务器上所有绑定的多路径WWID一致。
# 对比各服务器上的输出结果是否对应一致 # /lib/udev/scsi_id --whitelisted --device=/dev/yfs/data # /lib/udev/scsi_id --whitelisted --device=/dev/yfs/sys0 # /lib/udev/scsi_id --whitelisted --device=/dev/yfs/sys1 # /lib/udev/scsi_id --whitelisted --device=/dev/yfs/sys2若两台服务器上同一路经所对应的WWID不一致,说明其挂载的磁阵不是同一个LUN,需联系网络管理员处理。
# 重新绑定
若在数据库运行过程中,需要重新绑定存储设备,可参考以下步骤进行操作:
以root用户登录目标服务器。
查看当前的配置规则(即yashan-device-rule.rules文件),确保该文件存在且包含了正确的匹配条件和操作。
# cat /etc/udev/rules.d/yashan-device-rule.rules如果规则文件没有问题,直接执行后续操作。
如果规则文件不正确,可参考首次绑定中的“步骤1:生成配置文件”重新生成该文件,再执行后续操作。
重新加载udev配置。
# udevadm control --reload-rules重新绑定存储设备。
## 场景1:重新绑定规则文件中的所有设备 # udevadm trigger ## 场景2:重新绑定规则文件中的某一设备 # udevadm trigger --sysname-match=sdf检查设备状态。
# udevadm info --query=all --name=/dev/sdf
# 挂载NVMe盘
本步骤仅适用于使用分布式集群部署场景,其他场景请略过。
实际部署环境可能与示例不同,请参考示例调整,请勿将以下配置直接用于生产环境。
YashanDB要求分布式集群中的每台DN均已挂载如下两个NVMe盘:
系统盘(以/dev/nvme0n1为例)
用于集群管理,容量至少1G(当AU Size配置为32M时,大小至少为2G),此类磁盘的绝对路径将作为--system-data参数的值。
数据盘(以/dev/nvme0n2为例)
用于保存集群业务数据,请根据实际业务需求规划其容量,此类磁盘的绝对路径将作为--data参数的值。
获得NVMe盘信息后,请登录所有DN服务器为安装用户进行读写授权:
# chown -R yashan:yashan /dev/nvme0n1
# chmod -R yashan:yashan /dev/nvme0n2

