SAP系统云盘扩容指南
版本管理
版本 | 修订日期 | 变更类型 | 生效日期 |
1.0 | 2019/3/26 | ||
1.1 | 2019/3/29 | 1.更新了新增数据盘操作说明 2.文档链接更新等 | 2019/3/29 |
1.2 | 2019/4/2 | 1.更新了云盘缩容参考 2.优化排版布局等 | 2019/4/2 |
1.3 | 2019/12/30 | 1.增加云盘在线扩容说明 | 2019/12/30 |
云盘扩容场景概述
本文档描述了如何在阿里云环境中,对SAP系统应用或数据库云盘进行在线扩容。云盘扩容主要包括系统盘扩容和数据盘扩容,在对云盘扩容前请先阅读>在线扩容。云盘扩容主要包括系统盘扩容和数据盘扩容,在对云盘扩容前请先阅读
系统盘的扩容请参考:
云盘扩容后,需要使用指定的操作命令将文件系统扩展为需要的容量。
特殊场景下需要进行云盘缩容,请参考:磁盘缩容。
这里以SUSE 12 SP3 for SAP为例,使用LVM管理磁盘的分区和文件系统(包括XFS和EXT),不同版本或者不同操作系统命令可能有差异,请参考对应操作系统的产品手册。
本次扩容的场景假设SAP应用的 /hana/data, /usr/sap, /sapcd 这三个文件系统需要扩容:
/hana/data,/hana/log,/hana/shared 用三块SSD云盘通过LVM做了条带化处理,以满足HANA的性能要求,文件系统为XFS。
/usr/sap 使用了一块高效云盘,划分到了单独的vg中,文件系统为XFS。
/sapcd 未使用LVM管理,裸盘直接挂载,文件系统为EXT4。
示例
属性 | 文件系统原大小 | 扩容后大小 | 文件系统 | VG | LVM条带化 | 挂载点 |
数据盘 | 30G | 50G | XFS | datavg | 是 | /hana/data |
数据盘 | 30G | 60G | XFS | sapvg | 否 | /usr/sap |
数据盘 | 20G | 40G | EXT4 | N/A | 否 | /sapcd |
云盘扩容前,建议对云盘做快照,以防止误操作导致的数据丢失。
更多信息,请参考 创建快照。
数据盘扩容
新增数据盘
新增数据盘,一般用于新挂载文件系统、单块云盘容量已经超过最大容量限制或多盘做LVM条带化提升磁盘IO性能的场景。
示例:新增20G云盘并挂载到文件系统 /usr/sap/T01
1.控制台新建一块20G云盘 ,并挂载到当前ECS,系统自动分配磁盘名 /dev/vdg
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vda 253:0 0 40G 0 disk
└─vda1 253:1 0 40G 0 part /
vdb 253:16 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdc 253:32 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdd 253:48 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vde 253:64 0 60G 0 disk
└─sapvg-lvusrsap 254:0 0 60G 0 lvm /usr/sap
vdf 253:80 0 40G 0 disk /sapcd
vdg 253:96 0 20G 0 disk
2.扩展到已有的vg并新建lv
将新加的云盘扩展到现有的vg中
# vgextend sapvg /dev/vdg
Volume group "sapvg" successfully extended
# pvs -a
PV VG Fmt Attr PSize PFree
/dev/datavg/lvhdata --- 0 0
/dev/datavg/lvhlog --- 0 0
/dev/datavg/lvhshared --- 0 0
/dev/root --- 0 0
/dev/sapvg/lvusrsap --- 0 0
/dev/vdb datavg lvm2 a-- 40.00g 13.33g
/dev/vdc datavg lvm2 a-- 40.00g 13.33g
/dev/vdd datavg lvm2 a-- 40.00g 13.33g
/dev/vde sapvg lvm2 a-- 60.00g 0
/dev/vdf --- 0 0
/dev/vdg sapvg lvm2 a-- 20.00g 20.00g
# lvcreate -l 100%FREE -n lvsapsid sapvg
Logical volume "lvsapsid" created.
# mkfs.xfs /dev/sapvg/lvsapsid
meta-data=/dev/sapvg/lvsapsid isize=256 agcount=4, agsize=1310464 blks
= sectsz=512 attr=2, projid32bit=1
= crc=0 finobt=0, sparse=0
data = bsize=4096 blocks=5241856, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
3.挂载新的文件系统到指定挂载点
如果新建的分区需要挂载到非空目录,请先将该目录下的子目录和文件临时移动或备份到其他目录下,待挂载成功后再将子目录和文件移动或拷贝回来。
mount /dev/mapper/sapvg-lvsapsid /usr/sap/T01
# df -Th
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 3.9G 8.0K 3.9G 1% /dev
tmpfs tmpfs 8.0G 0 8.0G 0% /dev/shm
tmpfs tmpfs 3.9G 660K 3.9G 1% /run
tmpfs tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/vda1 ext4 40G 3.6G 34G 10% /
/dev/vdf ext4 40G 48M 38G 1% /sapcd
/dev/mapper/datavg-lvhdata xfs 50G 33M 50G 1% /hana/data
/dev/mapper/datavg-lvhlog xfs 10G 33M 10G 1% /hana/log
/dev/mapper/datavg-lvhshared xfs 20G 33M 20G 1% /hana/shared
/dev/mapper/sapvg-lvusrsap xfs 60G 33M 60G 1% /usr/sap
tmpfs tmpfs 799M 0 799M 0% /run/user/0
/dev/mapper/sapvg-lvsapsid xfs 20G 33M 20G 1% /usr/sap/T01
4.将新加的文件系统添加到fstab
echo "/dev/mapper/sapvg-lvsapsid /usr/sap/T01 xfs defaults 0 0" >>/etc/fstab
数据盘扩容
查看当前文件系统
要查询当前实例的文件系统,请先登录ECS的操作系统。
当前示例的操作系统为SUSE 12,数据盘的文件系统为XFS和EXT4。
# df -Th
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 3.9G 8.0K 3.9G 1% /dev
tmpfs tmpfs 8.0G 0 8.0G 0% /dev/shm
tmpfs tmpfs 3.9G 624K 3.9G 1% /run
tmpfs tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/vda1 ext4 40G 3.6G 34G 10% /
tmpfs tmpfs 799M 0 799M 0% /run/user/0
/dev/mapper/sapvg-lvusrsap xfs 30G 33M 30G 1% /usr/sap
/dev/mapper/datavg-lvhdata xfs 30G 33M 30G 1% /hana/data
/dev/mapper/datavg-lvhlog xfs 10G 33M 10G 1% /hana/log
/dev/mapper/datavg-lvhshared xfs 20G 33M 20G 1% /hana/shared
/dev/vdf ext4 20G 44M 19G 1% /sapcd
扩展分区
使用lsblk命令查看实例上存储设备的信息。有关LVM分区的介绍,请参考LVM how to。
云盘扩容前状态
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vda 253:0 0 40G 0 disk
└─vda1 253:1 0 40G 0 part /
vdb 253:16 0 20G 0 disk
├─datavg-lvhshared 254:0 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:1 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:2 0 10G 0 lvm /hana/log
vdc 253:32 0 20G 0 disk
├─datavg-lvhshared 254:0 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:1 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:2 0 10G 0 lvm /hana/log
vdd 253:48 0 20G 0 disk
├─datavg-lvhshared 254:0 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:1 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:2 0 10G 0 lvm /hana/log
vde 253:64 0 30G 0 disk
└─sapvg-lvusrsap 254:3 0 30G 0 lvm /usr/sap
vdf 253:80 0 20G 0 disk /sapcd
登录控制台,选择需要扩容的云盘,完成扩容操作后重启ECS
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vda 253:0 0 40G 0 disk
└─vda1 253:1 0 40G 0 part /
vdb 253:16 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdc 253:32 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdd 253:48 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vde 253:64 0 60G 0 disk
└─sapvg-lvusrsap 254:0 0 30G 0 lvm /usr/sap
vdf 253:80 0 40G 0 disk /sapcd
/dev/vdb,/dev/vdc,/dev/vdd 三块云盘做了条带化处理,对应的文件系统是/hana/data /hana/log /hana/shared。虽然云盘的扩容已经生效(单盘40G,扩容后总容量120G),但lv的大小还是原始大小(30G),需要先扩展vg,再扩展lv。
云盘/dev/vde只有一个lv /usr/sap。云盘的扩容已经生效(60G),但lv的大小还是原始大小(30G),需要先扩展vg,再扩展lv。
云盘/dev/vdf 没有做lvm,分区的大小反映了新的大小。(40G)
扩展vg和lv
使用LVM命令将文件系统的大小调整为新的容量。
1.扩展pv
# pvresize /dev/vdb /dev/vdc /dev/vdd /dev/vde
Physical volume "/dev/vdb" changed
Physical volume "/dev/vdc" changed
Physical volume "/dev/vdd" changed
Physical volume "/dev/vde" changed
4 physical volume(s) resized / 0 physical volume(s) not resized
2.按需求调整lv大小,按本示例规划调整如下:
# lvresize -L +20G /dev/datavg/lvhdata
Using stripesize of last segment 64.00 KiB
Rounding size (12800 extents) up to stripe boundary size for segment (12801 extents)
Size of logical volume datavg/lvhdata changed from 30.00 GiB (7680 extents) to 50.00 GiB (12801 extents).
Logical volume lvhdata successfully resized
# lvresize -L +30G /dev/sapvg/lvusrsap
Size of logical volume sapvg/lvusrsap changed from 30.00 GiB (7679 extents) to 60.00 GiB (15359 extents).
Logical volume lvusrsap successfully resized
3.扩展lv
示例:扩展XFS文件系统
# xfs_growfs /usr/sap
meta-data=/dev/mapper/sapvg-lvusrsap isize=256 agcount=4, agsize=1965824 blks
= sectsz=512 attr=2, projid32bit=1
= crc=0 finobt=0 spinodes=0
data = bsize=4096 blocks=7863296, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal bsize=4096 blocks=3839, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
data blocks changed from 7863296 to 15727616
# xfs_growfs /hana/data
meta-data=/dev/mapper/datavg-lvhdata isize=256 agcount=16, agsize=491504 blks
= sectsz=512 attr=2, projid32bit=1
= crc=0 finobt=0 spinodes=0
data = bsize=4096 blocks=7864064, imaxpct=25
= sunit=16 swidth=48 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal bsize=4096 blocks=3840, version=2
= sectsz=512 sunit=16 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
data blocks changed from 7864064 to 13108224
示例:扩展ext2,ext3或ext4文件系统,使用resize2fs命令扩展每个卷上的文件系统
# resize2fs /dev/vdf
resize2fs 1.42.11 (09-Jul-2014)
Filesystem at /dev/vdf is mounted on /sapcd; on-line resizing required
old_desc_blocks = 2, new_desc_blocks = 3
The filesystem on /dev/vdf is now 10485760 blocks long.
5.验证结果
# df -Th
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 3.9G 8.0K 3.9G 1% /dev
tmpfs tmpfs 8.0G 0 8.0G 0% /dev/shm
tmpfs tmpfs 3.9G 648K 3.9G 1% /run
tmpfs tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/vda1 ext4 40G 3.6G 34G 10% /
/dev/vdf ext4 40G 48M 38G 1% /sapcd
tmpfs tmpfs 799M 0 799M 0% /run/user/0
/dev/mapper/datavg-lvhdata xfs 50G 33M 50G 1% /hana/data
/dev/mapper/datavg-lvhlog xfs 10G 33M 10G 1% /hana/log
/dev/mapper/datavg-lvhshared xfs 20G 33M 20G 1% /hana/shared
/dev/mapper/sapvg-lvusrsap xfs 60G 33M 60G 1% /usr/sap
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vda 253:0 0 40G 0 disk
└─vda1 253:1 0 40G 0 part /
vdb 253:16 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdc 253:32 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdd 253:48 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vde 253:64 0 60G 0 disk
└─sapvg-lvusrsap 254:0 0 60G 0 lvm /usr/sap
vdf 253:80 0 40G 0 disk /sapcd