<html><body><div style="font-family: times new roman, new york, times, serif; font-size: 12pt; color: #000000"><div><br></div><div><br></div><hr id="zwchr"><div style="color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><b>From: </b>"Hu Bert" &lt;revirii@googlemail.com&gt;<br><b>To: </b>"Ashish Pandey" &lt;aspandey@redhat.com&gt;<br><b>Cc: </b>"Gluster Users" &lt;gluster-users@gluster.org&gt;<br><b>Sent: </b>Monday, January 7, 2019 1:28:22 PM<br><b>Subject: </b>Re: [Gluster-users] Glusterfs 4.1.6<br><div><br></div>Hi,<br><div><br></div>thx Ashish for the clarification. Just another question... so the<br>commands in case of a hdd (lets say sdd) failure and identical brick<br>paths (mount: /gluster/bricksdd1) should look like this:<br><div><br></div>gluster volume reset-brick $volname /gluster/bricksdd1 start<br>&gt;&gt; change hdd, create partition &amp; filesystem, mount &lt;&lt;<br>gluster volume reset-brick $volname $host:/gluster/bricksdd1<br>$host:/gluster/bricksdd1 commit force<br><div><br></div><div>&gt;&gt;&gt; Correct.<br></div><div><br></div>Is it possible to change the mountpoint/brick name with this command?<br>In my case:<br>old: /gluster/bricksdd1_new<br>new: /gluster/bricksdd1<br>i.e. only the mount point is different.<br><div><br></div>gluster volume reset-brick $volname $host:/gluster/bricksdd1_new<br>$host:/gluster/bricksdd1 commit force<br><div><br></div>I would try to:<br>- gluster volume reset-brick $volname $host:/gluster/bricksdd1_new start<br>- reformat sdd etc.<br>- gluster volume reset-brick $volname $host:/gluster/bricksdd1_new<br>$host:/gluster/bricksdd1 commit force<br><div><br></div><div>&gt;&gt;&gt; I think it is not possible. At least this is what we tested during and after development.</div><div>We would consider the above case as replace-brick and not as reset-brick.<br></div><div><br></div>thx<br>Hubert<br><div><br></div>Am Mo., 7. Jan. 2019 um 08:21 Uhr schrieb Ashish Pandey &lt;aspandey@redhat.com&gt;:<br>&gt;<br>&gt; comments inline<br>&gt;<br>&gt; ________________________________<br>&gt; From: "Hu Bert" &lt;revirii@googlemail.com&gt;<br>&gt; To: "Ashish Pandey" &lt;aspandey@redhat.com&gt;<br>&gt; Cc: "Gluster Users" &lt;gluster-users@gluster.org&gt;<br>&gt; Sent: Monday, January 7, 2019 12:41:29 PM<br>&gt; Subject: Re: [Gluster-users] Glusterfs 4.1.6<br>&gt;<br>&gt; Hi Ashish &amp; all others,<br>&gt;<br>&gt; if i may jump in... i have a little question if that's ok?<br>&gt; replace-brick and reset-brick are different commands for 2 distinct<br>&gt; problems? I once had a faulty disk (=brick), it got replaced<br>&gt; (hot-swap) and received the same identifier (/dev/sdd again); i<br>&gt; followed this guide:<br>&gt;<br>&gt; https://docs.gluster.org/en/v3/Administrator%20Guide/Managing%20Volumes/<br>&gt; --&gt;&gt; "Replacing bricks in Replicate/Distributed Replicate volumes"<br>&gt;<br>&gt; If i unterstand it correctly:<br>&gt;<br>&gt; - using replace-brick is for "i have an additional disk and want to<br>&gt; move data from existing brick to new brick", old brick gets removed<br>&gt; from volume and new brick gets added to the volume.<br>&gt; - reset-brick is for "one of my hdds crashed and it will be replaced<br>&gt; by a new one", the brick name stays the same.<br>&gt;<br>&gt; did i get that right? If so: holy smokes... then i misunderstood this<br>&gt; completly (sorry @Pranith&amp;Xavi). The wording is a bit strange here...<br>&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>&gt; Yes, your understanding is correct. &nbsp;In addition to above, one more use of reset-brick -<br>&gt; If you want to change hostname of your server and bricks are having hostname, then you can use reset-brick to change from hostname to Ip address and then change the<br>&gt; hostname of the server.<br>&gt; In short, whenever &nbsp;you want to change something on one of the brick while location and mount point are same, you should use reset-brick<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>&gt;<br>&gt;<br>&gt;<br>&gt; Thx<br>&gt; Hubert<br>&gt;<br>&gt; Am Do., 3. Jan. 2019 um 12:38 Uhr schrieb Ashish Pandey &lt;aspandey@redhat.com&gt;:<br>&gt; &gt;<br>&gt; &gt; Hi,<br>&gt; &gt;<br>&gt; &gt; Some of the the steps provided by you are not correct.<br>&gt; &gt; You should have used reset-brick command which was introduced for the same task you wanted to do.<br>&gt; &gt;<br>&gt; &gt; https://docs.gluster.org/en/v3/release-notes/3.9.0/<br>&gt; &gt;<br>&gt; &gt; Although your thinking was correct but replacing a faulty disk requires some of the additional task which this command<br>&gt; &gt; will do automatically.<br>&gt; &gt;<br>&gt; &gt; Step 1 :- kill pid of the faulty brick in node &nbsp;&gt;&gt;&gt;&gt;&gt;&gt; This should be done using "reset-brick start" command. follow the steps provided in link.<br>&gt; &gt; Step 2 :- running volume status, shows "N/A" under 'pid' &amp; 'TCP port'<br>&gt; &gt; Step 3 :- replace disk and mount new disk in same mount point where the old disk was mounted<br>&gt; &gt; Step 4 :- run command "gluster v start volname force" &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; This should be done using "reset-brick commit force" command. This will trigger the heal. &nbsp;Follow the link.<br>&gt; &gt; Step 5 :- running volume status, &nbsp;shows "N/A" under 'pid' &amp; 'TCP port'<br>&gt; &gt;<br>&gt; &gt; ---<br>&gt; &gt; Ashish<br>&gt; &gt;<br>&gt; &gt; ________________________________<br>&gt; &gt; From: "Amudhan P" &lt;amudhan83@gmail.com&gt;<br>&gt; &gt; To: "Gluster Users" &lt;gluster-users@gluster.org&gt;<br>&gt; &gt; Sent: Thursday, January 3, 2019 4:25:58 PM<br>&gt; &gt; Subject: [Gluster-users] Glusterfs 4.1.6<br>&gt; &gt;<br>&gt; &gt; Hi,<br>&gt; &gt;<br>&gt; &gt; I am working on Glusterfs 4.1.6 on a test machine. I am trying to replace a faulty disk and below are the steps I did but wasn't successful with that.<br>&gt; &gt;<br>&gt; &gt; 3 Nodes, 2 disks per node, Disperse Volume 4+2 :-<br>&gt; &gt; Step 1 :- kill pid of the faulty brick in node<br>&gt; &gt; Step 2 :- running volume status, shows "N/A" under 'pid' &amp; 'TCP port'<br>&gt; &gt; Step 3 :- replace disk and mount new disk in same mount point where the old disk was mounted<br>&gt; &gt; Step 4 :- run command "gluster v start volname force"<br>&gt; &gt; Step 5 :- running volume status, &nbsp;shows "N/A" under 'pid' &amp; 'TCP port'<br>&gt; &gt;<br>&gt; &gt; expected behavior was a new brick process &amp; heal should have started.<br>&gt; &gt;<br>&gt; &gt; following above said steps 3.10.1 works perfectly, starting a new brick process and heal begins.<br>&gt; &gt; But the same step not working in 4.1.6, Did I miss any steps? what should be done?<br>&gt; &gt;<br>&gt; &gt; Amudhan<br>&gt; &gt;<br>&gt; &gt; _______________________________________________<br>&gt; &gt; Gluster-users mailing list<br>&gt; &gt; Gluster-users@gluster.org<br>&gt; &gt; https://lists.gluster.org/mailman/listinfo/gluster-users<br>&gt; &gt;<br>&gt; &gt; _______________________________________________<br>&gt; &gt; Gluster-users mailing list<br>&gt; &gt; Gluster-users@gluster.org<br>&gt; &gt; https://lists.gluster.org/mailman/listinfo/gluster-users<br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; https://lists.gluster.org/mailman/listinfo/gluster-users<br>&gt;<br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>https://lists.gluster.org/mailman/listinfo/gluster-users<br></div><div><br></div></div></body></html>