<div dir="ltr">Hi,<br><br>I have small datawarehouse using mariadb columnstore setup as 2 instance server with glusterfs as storage backend, i follow setup from this guide <a href="https://mariadb.com/kb/en/installing-and-configuring-a-multi-server-columnstore-system-11x">https://mariadb.com/kb/en/installing-and-configuring-a-multi-server-columnstore-system-11x</a><br><br>Now our server almost running out of space, i have attached new disk to both server and plan to add more storage capacity to the glusterfs volume and remove old brick (if possible) <br><br>Questions :<br>Can i do this step :<br>1. stop mariadb<br>2. stop glusterfs<br>3. mount new disk to /mnt/newdisk  <br>4. copy data from old brick to to /mnt/newdisk <br>5. unmount brick<br>6. mount new disk to /usr/local/mariadb/columnstore/gluster (existing glusterfs mount)<br><br>or is there any easy and better way to add capacity? i dont mine to keep or remove old brick<div><br></div><div>Thank you,</div><div><br></div><div><b><i>command output from host 10.1.1.60</i></b></div><div><font face="monospace">root@mDWDB01:~# gluster volume status<br>Status of volume: dbroot1<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick 10.1.1.60:/usr/local/mariadb/columnst<br>ore/gluster/brick1                          49152     0          Y       1541<br>Brick 10.1.1.61:/usr/local/mariadb/columnst<br>ore/gluster/brick1                          49152     0          Y       1499<br>Self-heal Daemon on localhost               N/A       N/A        Y       1425<br>Self-heal Daemon on 10.1.1.61               N/A       N/A        Y       1367<br><br>Task Status of Volume dbroot1<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>Status of volume: dbroot2<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick 10.1.1.60:/usr/local/mariadb/columnst<br>ore/gluster/brick2                          49153     0          Y       1550<br>Brick 10.1.1.61:/usr/local/mariadb/columnst<br>ore/gluster/brick2                          49153     0          Y       1508<br>Self-heal Daemon on localhost               N/A       N/A        Y       1425<br>Self-heal Daemon on 10.1.1.61               N/A       N/A        Y       1367<br><br>Task Status of Volume dbroot2<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>mis@mDWDB01:~$ sudo gluster volume info<br>[sudo] password for mis:<br><br>Volume Name: dbroot1<br>Type: Replicate<br>Volume ID: 22814201-3fae-4904-b0b7-d6e1716365ec<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: 10.1.1.60:/usr/local/mariadb/columnstore/gluster/brick1<br>Brick2: 10.1.1.61:/usr/local/mariadb/columnstore/gluster/brick1<br>Options Reconfigured:<br>performance.client-io-threads: off<br>nfs.disable: on<br>transport.address-family: inet<br><br>Volume Name: dbroot2<br>Type: Replicate<br>Volume ID: 6443b073-754d-440b-89e9-49c085114f46<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: 10.1.1.60:/usr/local/mariadb/columnstore/gluster/brick2<br>Brick2: 10.1.1.61:/usr/local/mariadb/columnstore/gluster/brick2<br>Options Reconfigured:<br>performance.client-io-threads: off<br>nfs.disable: on<br>transport.address-family: inet<br><br>mis@mDWDB01:~$ mount |grep column<br>/dev/sdb1 on /usr/local/mariadb/columnstore/gluster type xfs (rw,relatime,attr2,inode64,noquota)<br>10.1.1.60:/dbroot2 on /usr/local/mariadb/columnstore/data2 type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)<br></font></div><div><font face="monospace"><br></font></div><div><br></div><div><div><b><i>command output from host 10.1.1.61</i></b></div><div><font face="monospace">mis@mDWUM01:~$ sudo gluster volume info<br>[sudo] password for mis:<br><br>Volume Name: dbroot1<br>Type: Replicate<br>Volume ID: 22814201-3fae-4904-b0b7-d6e1716365ec<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: 10.1.1.60:/usr/local/mariadb/columnstore/gluster/brick1<br>Brick2: 10.1.1.61:/usr/local/mariadb/columnstore/gluster/brick1<br>Options Reconfigured:<br>performance.client-io-threads: off<br>nfs.disable: on<br>transport.address-family: inet<br><br>Volume Name: dbroot2<br>Type: Replicate<br>Volume ID: 6443b073-754d-440b-89e9-49c085114f46<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: 10.1.1.60:/usr/local/mariadb/columnstore/gluster/brick2<br>Brick2: 10.1.1.61:/usr/local/mariadb/columnstore/gluster/brick2<br>Options Reconfigured:<br>performance.client-io-threads: off<br>nfs.disable: on<br>transport.address-family: inet<br><br><br>mis@mDWUM01:~$ sudo gluster volume status<br>Status of volume: dbroot1<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick 10.1.1.60:/usr/local/mariadb/columnst<br>ore/gluster/brick1                          49152     0          Y       1541<br>Brick 10.1.1.61:/usr/local/mariadb/columnst<br>ore/gluster/brick1                          49152     0          Y       1499<br>Self-heal Daemon on localhost               N/A       N/A        Y       1367<br>Self-heal Daemon on mDWDB01                 N/A       N/A        Y       1425<br><br>Task Status of Volume dbroot1<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>Status of volume: dbroot2<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick 10.1.1.60:/usr/local/mariadb/columnst<br>ore/gluster/brick2                          49153     0          Y       1550<br>Brick 10.1.1.61:/usr/local/mariadb/columnst<br>ore/gluster/brick2                          49153     0          Y       1508<br>Self-heal Daemon on localhost               N/A       N/A        Y       1367<br>Self-heal Daemon on mDWDB01                 N/A       N/A        Y       1425<br><br>Task Status of Volume dbroot2<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>mis@mDWUM01:~$ mount |grep column<br>/dev/sdb1 on /usr/local/mariadb/columnstore/gluster type xfs (rw,relatime,attr2,inode64,noquota)<br>10.1.1.61:/dbroot1 on /usr/local/mariadb/columnstore/data1 type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)<br>mis@mDWUM01:~$<br></font></div><div></div></div><div><font face="monospace"><br></font></div><div><br></div><div><br></div><div><br></div></div>