<html><body><div style="font-family: times new roman, new york, times, serif; font-size: 12pt; color: #000000"><div>comments inline<br></div><div><br></div><hr id="zwchr"><div style="color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><b>From: </b>"Hu Bert" &lt;revirii@googlemail.com&gt;<br><b>To: </b>"Ashish Pandey" &lt;aspandey@redhat.com&gt;<br><b>Cc: </b>"Gluster Users" &lt;gluster-users@gluster.org&gt;<br><b>Sent: </b>Monday, January 7, 2019 12:41:29 PM<br><b>Subject: </b>Re: [Gluster-users] Glusterfs 4.1.6<br><div><br></div>Hi Ashish &amp; all others,<br><div><br></div>if i may jump in... i have a little question if that's ok?<br>replace-brick and reset-brick are different commands for 2 distinct<br>problems? I once had a faulty disk (=brick), it got replaced<br>(hot-swap) and received the same identifier (/dev/sdd again); i<br>followed this guide:<br><div><br></div>https://docs.gluster.org/en/v3/Administrator%20Guide/Managing%20Volumes/<br>--&gt;&gt; "Replacing bricks in Replicate/Distributed Replicate volumes"<br><div><br></div>If i unterstand it correctly:<br><div><br></div>- using replace-brick is for "i have an additional disk and want to<br>move data from existing brick to new brick", old brick gets removed<br>from volume and new brick gets added to the volume.<br>- reset-brick is for "one of my hdds crashed and it will be replaced<br>by a new one", the brick name stays the same.<br><div><br></div>did i get that right? If so: holy smokes... then i misunderstood this<br>completly (sorry @Pranith&amp;Xavi). The wording is a bit strange here...<br><div><br></div><div>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br></div><div>Yes, your understanding is correct.&nbsp; In addition to above, one more use of reset-brick -<br></div><div>If you want to change hostname of your server and bricks are having hostname, then you can use reset-brick to change from hostname to Ip address and then change the <br></div><div>hostname of the server.<br></div><div>In short, whenever&nbsp; you want to change something on one of the brick while location and mount point are same, you should use reset-brick <br></div><div>&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;</div><div><br></div><div><br></div><div><br></div>Thx<br>Hubert<br><div><br></div>Am Do., 3. Jan. 2019 um 12:38 Uhr schrieb Ashish Pandey &lt;aspandey@redhat.com&gt;:<br>&gt;<br>&gt; Hi,<br>&gt;<br>&gt; Some of the the steps provided by you are not correct.<br>&gt; You should have used reset-brick command which was introduced for the same task you wanted to do.<br>&gt;<br>&gt; https://docs.gluster.org/en/v3/release-notes/3.9.0/<br>&gt;<br>&gt; Although your thinking was correct but replacing a faulty disk requires some of the additional task which this command<br>&gt; will do automatically.<br>&gt;<br>&gt; Step 1 :- kill pid of the faulty brick in node &nbsp;&gt;&gt;&gt;&gt;&gt;&gt; This should be done using "reset-brick start" command. follow the steps provided in link.<br>&gt; Step 2 :- running volume status, shows "N/A" under 'pid' &amp; 'TCP port'<br>&gt; Step 3 :- replace disk and mount new disk in same mount point where the old disk was mounted<br>&gt; Step 4 :- run command "gluster v start volname force" &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; This should be done using "reset-brick commit force" command. This will trigger the heal. &nbsp;Follow the link.<br>&gt; Step 5 :- running volume status, &nbsp;shows "N/A" under 'pid' &amp; 'TCP port'<br>&gt;<br>&gt; ---<br>&gt; Ashish<br>&gt;<br>&gt; ________________________________<br>&gt; From: "Amudhan P" &lt;amudhan83@gmail.com&gt;<br>&gt; To: "Gluster Users" &lt;gluster-users@gluster.org&gt;<br>&gt; Sent: Thursday, January 3, 2019 4:25:58 PM<br>&gt; Subject: [Gluster-users] Glusterfs 4.1.6<br>&gt;<br>&gt; Hi,<br>&gt;<br>&gt; I am working on Glusterfs 4.1.6 on a test machine. I am trying to replace a faulty disk and below are the steps I did but wasn't successful with that.<br>&gt;<br>&gt; 3 Nodes, 2 disks per node, Disperse Volume 4+2 :-<br>&gt; Step 1 :- kill pid of the faulty brick in node<br>&gt; Step 2 :- running volume status, shows "N/A" under 'pid' &amp; 'TCP port'<br>&gt; Step 3 :- replace disk and mount new disk in same mount point where the old disk was mounted<br>&gt; Step 4 :- run command "gluster v start volname force"<br>&gt; Step 5 :- running volume status, &nbsp;shows "N/A" under 'pid' &amp; 'TCP port'<br>&gt;<br>&gt; expected behavior was a new brick process &amp; heal should have started.<br>&gt;<br>&gt; following above said steps 3.10.1 works perfectly, starting a new brick process and heal begins.<br>&gt; But the same step not working in 4.1.6, Did I miss any steps? what should be done?<br>&gt;<br>&gt; Amudhan<br>&gt;<br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; https://lists.gluster.org/mailman/listinfo/gluster-users<br>&gt;<br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; https://lists.gluster.org/mailman/listinfo/gluster-users<br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>https://lists.gluster.org/mailman/listinfo/gluster-users<br></div><div><br></div></div></body></html>