<div dir="ltr">Hi,<div><br></div><div>please see; <a href="https://docs.gluster.org/en/latest/Administrator-Guide/Managing-Volumes/">https://docs.gluster.org/en/latest/Administrator-Guide/Managing-Volumes/</a></div><div><br></div><div>Gluster offers online expansion of the volume you can add bricks and/or nodes without taking mariadb offline if you want.</div><div><br></div><div>just use the; gluster volume add-brick [vol] [bricks] (bricks must be added according your replication count, in your case 2)</div><div>or use; gluster volume replace-brick [vol] [brick] to replace a single brick</div><div><br></div><div>Best Olaf</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Op do 24 dec. 2020 om 23:35 schreef Bambang Sumitra &lt;<a href="mailto:bambang.sumitra@gmail.com">bambang.sumitra@gmail.com</a>&gt;:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi,<br><br>I have small datawarehouse using mariadb columnstore setup as 2 instance server with glusterfs as storage backend, i follow setup from this guide <a href="https://mariadb.com/kb/en/installing-and-configuring-a-multi-server-columnstore-system-11x" target="_blank">https://mariadb.com/kb/en/installing-and-configuring-a-multi-server-columnstore-system-11x</a><br><br>Now our server almost running out of space, i have attached new disk to both server and plan to add more storage capacity to the glusterfs volume and remove old brick (if possible) <br><br>Questions :<br>Can i do this step :<br>1. stop mariadb<br>2. stop glusterfs<br>3. mount new disk to /mnt/newdisk  <br>4. copy data from old brick to to /mnt/newdisk <br>5. unmount brick<br>6. mount new disk to /usr/local/mariadb/columnstore/gluster (existing glusterfs mount)<br><br>or is there any easy and better way to add capacity? i dont mine to keep or remove old brick<div><br></div><div>Thank you,</div><div><br></div><div><b><i>command output from host 10.1.1.60</i></b></div><div><font face="monospace">root@mDWDB01:~# gluster volume status<br>Status of volume: dbroot1<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick 10.1.1.60:/usr/local/mariadb/columnst<br>ore/gluster/brick1                          49152     0          Y       1541<br>Brick 10.1.1.61:/usr/local/mariadb/columnst<br>ore/gluster/brick1                          49152     0          Y       1499<br>Self-heal Daemon on localhost               N/A       N/A        Y       1425<br>Self-heal Daemon on 10.1.1.61               N/A       N/A        Y       1367<br><br>Task Status of Volume dbroot1<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>Status of volume: dbroot2<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick 10.1.1.60:/usr/local/mariadb/columnst<br>ore/gluster/brick2                          49153     0          Y       1550<br>Brick 10.1.1.61:/usr/local/mariadb/columnst<br>ore/gluster/brick2                          49153     0          Y       1508<br>Self-heal Daemon on localhost               N/A       N/A        Y       1425<br>Self-heal Daemon on 10.1.1.61               N/A       N/A        Y       1367<br><br>Task Status of Volume dbroot2<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>mis@mDWDB01:~$ sudo gluster volume info<br>[sudo] password for mis:<br><br>Volume Name: dbroot1<br>Type: Replicate<br>Volume ID: 22814201-3fae-4904-b0b7-d6e1716365ec<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: 10.1.1.60:/usr/local/mariadb/columnstore/gluster/brick1<br>Brick2: 10.1.1.61:/usr/local/mariadb/columnstore/gluster/brick1<br>Options Reconfigured:<br>performance.client-io-threads: off<br>nfs.disable: on<br>transport.address-family: inet<br><br>Volume Name: dbroot2<br>Type: Replicate<br>Volume ID: 6443b073-754d-440b-89e9-49c085114f46<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: 10.1.1.60:/usr/local/mariadb/columnstore/gluster/brick2<br>Brick2: 10.1.1.61:/usr/local/mariadb/columnstore/gluster/brick2<br>Options Reconfigured:<br>performance.client-io-threads: off<br>nfs.disable: on<br>transport.address-family: inet<br><br>mis@mDWDB01:~$ mount |grep column<br>/dev/sdb1 on /usr/local/mariadb/columnstore/gluster type xfs (rw,relatime,attr2,inode64,noquota)<br>10.1.1.60:/dbroot2 on /usr/local/mariadb/columnstore/data2 type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)<br></font></div><div><font face="monospace"><br></font></div><div><br></div><div><div><b><i>command output from host 10.1.1.61</i></b></div><div><font face="monospace">mis@mDWUM01:~$ sudo gluster volume info<br>[sudo] password for mis:<br><br>Volume Name: dbroot1<br>Type: Replicate<br>Volume ID: 22814201-3fae-4904-b0b7-d6e1716365ec<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: 10.1.1.60:/usr/local/mariadb/columnstore/gluster/brick1<br>Brick2: 10.1.1.61:/usr/local/mariadb/columnstore/gluster/brick1<br>Options Reconfigured:<br>performance.client-io-threads: off<br>nfs.disable: on<br>transport.address-family: inet<br><br>Volume Name: dbroot2<br>Type: Replicate<br>Volume ID: 6443b073-754d-440b-89e9-49c085114f46<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: 10.1.1.60:/usr/local/mariadb/columnstore/gluster/brick2<br>Brick2: 10.1.1.61:/usr/local/mariadb/columnstore/gluster/brick2<br>Options Reconfigured:<br>performance.client-io-threads: off<br>nfs.disable: on<br>transport.address-family: inet<br><br><br>mis@mDWUM01:~$ sudo gluster volume status<br>Status of volume: dbroot1<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick 10.1.1.60:/usr/local/mariadb/columnst<br>ore/gluster/brick1                          49152     0          Y       1541<br>Brick 10.1.1.61:/usr/local/mariadb/columnst<br>ore/gluster/brick1                          49152     0          Y       1499<br>Self-heal Daemon on localhost               N/A       N/A        Y       1367<br>Self-heal Daemon on mDWDB01                 N/A       N/A        Y       1425<br><br>Task Status of Volume dbroot1<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>Status of volume: dbroot2<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick 10.1.1.60:/usr/local/mariadb/columnst<br>ore/gluster/brick2                          49153     0          Y       1550<br>Brick 10.1.1.61:/usr/local/mariadb/columnst<br>ore/gluster/brick2                          49153     0          Y       1508<br>Self-heal Daemon on localhost               N/A       N/A        Y       1367<br>Self-heal Daemon on mDWDB01                 N/A       N/A        Y       1425<br><br>Task Status of Volume dbroot2<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>mis@mDWUM01:~$ mount |grep column<br>/dev/sdb1 on /usr/local/mariadb/columnstore/gluster type xfs (rw,relatime,attr2,inode64,noquota)<br>10.1.1.61:/dbroot1 on /usr/local/mariadb/columnstore/data1 type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)<br>mis@mDWUM01:~$<br></font></div><div></div></div><div><font face="monospace"><br></font></div><div><br></div><div><br></div><div><br></div></div>
________<br>
<br>
<br>
<br>
Community Meeting Calendar:<br>
<br>
Schedule -<br>
Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>
Bridge: <a href="https://meet.google.com/cpu-eiue-hvk" rel="noreferrer" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div>