<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, 5 Feb 2021, 12:27 Diego Zuccato, &lt;<a href="mailto:diego.zuccato@unibo.it">diego.zuccato@unibo.it</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Il 04/02/21 19:28, Nag Pavan Chilakam ha scritto:<br>
<br>
&gt;     What is the proper procedure to reduce a &quot;replica 3 arbiter 1&quot; volume?<br>
&gt; Can you kindly elaborate the volume configuration.  Is this a plain<br>
&gt; arbiter volume or is it a distributed arbiter volume?<br>
&gt; Please share the volume info so that we can help you better<br>
Sure. Here it is. Shortened a bit :)<br>
-8&lt;--<br>
# gluster v info<br>
<br>
Volume Name: BigVol<br>
Type: Distributed-Replicate<br>
Volume ID: c51926bd-6715-46b2-8bb3-8c915ec47e28<br>
Status: Started<br>
Snapshot Count: 0<br>
Number of Bricks: 28 x (2 + 1) = 84<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: str957-biostor2:/srv/bricks/00/BigVol<br>
Brick2: str957-biostor:/srv/bricks/00/BigVol<br>
Brick3: str957-biostq:/srv/arbiters/00/BigVol (arbiter)<br>
Brick4: str957-biostor2:/srv/bricks/01/BigVol<br>
Brick5: str957-biostor:/srv/bricks/01/BigVol<br>
Brick6: str957-biostq:/srv/arbiters/01/BigVol (arbiter)<br>
[...]<br>
Brick79: str957-biostor:/srv/bricks/26/BigVol<br>
Brick80: str957-biostor2:/srv/bricks/26/BigVol<br>
Brick81: str957-biostq:/srv/arbiters/26/BigVol (arbiter)<br>
Brick82: str957-biostor:/srv/bricks/27/BigVol<br>
Brick83: str957-biostor2:/srv/bricks/27/BigVol<br>
Brick84: str957-biostq:/srv/arbiters/27/BigVol (arbiter)<br>
Options Reconfigured:<br>
features.scrub-throttle: aggressive<br>
server.manage-gids: on<br>
features.quota-deem-statfs: on<br>
features.inode-quota: on<br>
features.quota: on<br>
cluster.self-heal-daemon: enable<br>
ssl.certificate-depth: 1<br>
auth.ssl-allow: str957-bio*<br>
features.scrub-freq: biweekly<br>
features.scrub: Active<br>
features.bitrot: on<br>
transport.address-family: inet<br>
performance.readdir-ahead: on<br>
nfs.disable: on<br>
client.ssl: on<br>
server.ssl: on<br>
server.event-threads: 8<br>
client.event-threads: 8<br>
cluster.granular-entry-heal: enable<br>
-8&lt;--<br></blockquote></div></div><div dir="auto">Ok, in this case it is a 28 x volume, you will have to remove each replica set (one dat subvolume) at one go. Eg</div><div dir="auto">Gluster v remove volname  b1 b2 b3 start</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
&gt;     The procedure I&#39;ve found is:<br>
&gt;     1) # gluster volume remove-brick VOLNAME BRICK start<br>
&gt;     (repeat for each brick to be removed, but being a r3a1 should I remove<br>
&gt;     both bricks and the arbiter in a single command or multiple ones?)<br></blockquote></div></div><div dir="auto">Yes in one single command, you need to mention the whole replica set. In your case b1,b2,b3  b4,b5,b6 so on .</div><div dir="auto">You can either mention multiple replica sets together or 1 set at a time</div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
&gt; No , you can mention bricks of a distributed subvolume in one command.<br>
&gt; If you are having a 1x(2+1a) volume , then you should mention only one<br>
&gt; brick. Start by removing the arbiter brick<br>
Ok.<br>
<br>
&gt;     2) # gluster volume remove-brick VOLNAME BRICK status<br>
&gt;     (to monitor migration)<br>
&gt;     3) # gluster volume remove-brick VOLNAME BRICK commit<br>
&gt;     (to finalize the removal)<br>
&gt;     4) umount and reformat the freed (now unused) bricks<br>
&gt;     Is this safe?<br>
&gt; What is the actual need to remove bricks?<br>
I need to move a couple of disks to a new server, to keep it all well<br>
balanced and increase the available space.<br>
<br>
&gt; If you feel this volume is not needed anymore , then just delete the<br>
&gt; volume, instead of going through each brick deletion<br>
Nono, the volume is needed and is currently hosting data I cannot<br>
lose... But I haven&#39;t space to copy it elsewhere...<br>
<br>
-- <br>
Diego Zuccato<br>
DIFA - Dip. di Fisica e Astronomia<br>
Servizi Informatici<br>
Alma Mater Studiorum - Università di Bologna<br>
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy<br>
tel.: +39 051 20 95786<br>
</blockquote></div></div></div>