<div dir="ltr"><div><div><div><div>Hay Niklaus,<br><br></div>Sorry for the delay. The *reset-brick* should do the trick for you.<br></div>You can have a look at [1] for more details.<br><br>[1] <a href="https://gluster.readthedocs.io/en/latest/release-notes/3.9.0/">https://gluster.readthedocs.io/en/latest/release-notes/3.9.0/</a><br><br></div>HTH,<br></div>Karthik<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Jun 1, 2017 at 12:28 PM, Niklaus Hofer <span dir="ltr">&lt;<a href="mailto:niklaus.hofer@stepping-stone.ch" target="_blank">niklaus.hofer@stepping-stone.ch</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi<br>
<br>
We have a Replica 2 + Arbiter Gluster setup with 3 nodes Server1, Server2 and Server3 where Server3 is the Arbiter node. There are several Gluster volumes ontop of that setup. They all look a bit like this:<br>
<br>
gluster volume info gv-tier1-vm-01<br>
<br>
[...]<br>
Number of Bricks: 1 x (2 + 1) = 3<br>
[...]<br>
Bricks:<br>
Brick1: Server1:/var/data/lv-vm-01<br>
Brick2: Server2:/var/data/lv-vm-01<br>
Brick3: Server3:/var/data/lv-vm-01/bri<wbr>ck (arbiter)<br>
[...]<br>
cluster.data-self-heal-algorit<wbr>hm: full<br>
[...]<br>
<br>
We took down Server2 because we needed to do maintenance on this server&#39;s storage. During maintenance work, we ended up having to completely rebuild the storage on Server2. This means that &quot;/var/data/lv-vm-01&quot; on Server2 is now empty. However, all the Gluster Metadata in &quot;/var/lib/glusterd/&quot; is still in tact. Gluster has not been started on Server2.<br>
<br>
Here is what our sample gluster volume currently looks like on the still active nodes:<br>
<br>
gluster volume status gv-tier1-vm-01<br>
<br>
Status of volume: gv-tier1-vm-01<br>
Gluster process                             TCP Port  RDMA Port  Online  Pid<br>
------------------------------<wbr>------------------------------<wbr>------------------<br>
Brick Server1:/var/data/lv-vm-01            49204     0          Y 22775<br>
Brick Server3:/var/data/lv-vm-01/bri<wbr>ck      49161     0          Y 15334<br>
Self-heal Daemon on localhost               N/A       N/A        Y 19233<br>
Self-heal Daemon on Server3                 N/A       N/A        Y 20839<br>
<br>
<br>
Now we would like to rebuild the data on Server2 from the still in tact data on Server1. That is to say, we hope to start up Gluster on Server2 in such a way that it will sync the data from Server1 back. If at all possible, the Gluster cluster should stay up during this process and access to the Gluster volumes should not be interrupted.<br>
<br>
What is the correct / recommended way of doing this?<br>
<br>
Greetings<span class="HOEnZb"><font color="#888888"><br>
Niklaus Hofer<br>
-- <br>
stepping stone GmbH<br>
Neufeldstrasse 9<br>
CH-3012 Bern<br>
<br>
Telefon: +41 31 332 53 63<br>
<a href="http://www.stepping-stone.ch" rel="noreferrer" target="_blank">www.stepping-stone.ch</a><br>
<a href="mailto:niklaus.hofer@stepping-stone.ch" target="_blank">niklaus.hofer@stepping-stone.c<wbr>h</a><br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/mailm<wbr>an/listinfo/gluster-users</a><br>
</font></span></blockquote></div><br></div>