<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">Hi Karthik,<div class=""><br class=""></div><div class="">more over, I would like to ask if there are some recommended settings/parameters for SHD in order to achieve good or fair I/O while volume will be healed when I will replace Brick (this should trigger healing process).&nbsp;</div><div class="">I had some problems in past when healing was triggered, VM disks became unresponsive because healing took most of I/O. My volume containing only big files with VM disks.</div><div class=""><br class=""></div><div class="">Thanks for suggestions.</div><div class="">BR,&nbsp;</div><div class="">Martin</div><div class=""><div><br class=""><blockquote type="cite" class=""><div class="">On 10 Apr 2019, at 12:38, Martin Toth &lt;<a href="mailto:snowmailer@gmail.com" class="">snowmailer@gmail.com</a>&gt; wrote:</div><br class="Apple-interchange-newline"><div class=""><meta http-equiv="Content-Type" content="text/html; charset=utf-8" class=""><div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">Thanks, this looks ok to me, I will reset brick because I don't have any data anymore on failed node so I can use same path / brick name.<div class=""><br class=""></div><div class="">Is reseting brick dangerous command? Should I be worried about some possible failure that will impact remaining two nodes? I am running really old&nbsp;3.7.6 but stable version.</div><div class=""><br class=""></div><div class="">Thanks,</div><div class="">BR!</div><div class=""><br class=""></div><div class="">Martin<br class=""><div class="">&nbsp;<br class=""><div class=""><br class=""><blockquote type="cite" class=""><div class="">On 10 Apr 2019, at 12:20, Karthik Subrahmanya &lt;<a href="mailto:ksubrahm@redhat.com" class="">ksubrahm@redhat.com</a>&gt; wrote:</div><br class="Apple-interchange-newline"><div class=""><div dir="ltr" class="">Hi Martin,<div class=""><br class=""></div><div class="">After you add the new disks and creating raid array, you can run the following command to replace the old brick with new one:</div><div class=""><br class=""></div><div class="">- If you are going to use a different name to the new brick you can run</div><div class="">gluster volume replace-brick &lt;volname&gt; &lt;old-brick&gt; &lt;new-brick&gt; commit force</div><div class=""><br class=""></div><div class="">- If you are planning to use the same name for the new brick as well then you can use</div><div class="">gluster volume reset-brick &lt;volname&gt; &lt;old-brick&gt; &lt;new-brick&gt; commit force</div><div class="">Here old-brick &amp; new-brick's hostname &amp;&nbsp; path should be same.</div><div class=""><br class=""></div><div class="">After replacing the brick, make sure the brick comes online using volume status.</div><div class="">Heal should automatically start, you can check the heal status to see all the files gets replicated to the newly added brick. If it does not start automatically, you can manually start that by running gluster volume heal &lt;volname&gt;.</div><div class=""><br class=""></div><div class="">HTH,</div><div class="">Karthik</div></div><br class=""><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 10, 2019 at 3:13 PM Martin Toth &lt;<a href="mailto:snowmailer@gmail.com" class="">snowmailer@gmail.com</a>&gt; wrote:<br class=""></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi all,<br class="">
<br class="">
I am running replica 3 gluster with 3 bricks. One of my servers failed - all disks are showing errors and raid is in fault state.<br class="">
<br class="">
Type: Replicate<br class="">
Volume ID: 41d5c283-3a74-4af8-a55d-924447bfa59a<br class="">
Status: Started<br class="">
Number of Bricks: 1 x 3 = 3<br class="">
Transport-type: tcp<br class="">
Bricks:<br class="">
Brick1: node1.san:/tank/gluster/gv0imagestore/brick1<br class="">
Brick2: node2.san:/tank/gluster/gv0imagestore/brick1 &lt;— this brick is down<br class="">
Brick3: node3.san:/tank/gluster/gv0imagestore/brick1<br class="">
<br class="">
So one of my bricks is totally failed (node2). It went down and all data are lost (failed raid on node2). Now I am running only two bricks on 2 servers out from 3.<br class="">
This is really critical problem for us, we can lost all data. I want to add new disks to node2, create new raid array on them and try to replace failed brick on this node. <br class="">
<br class="">
What is the procedure of replacing Brick2 on node2, can someone advice? I can’t find anything relevant in documentation.<br class="">
<br class="">
Thanks in advance,<br class="">
Martin<br class="">
_______________________________________________<br class="">
Gluster-users mailing list<br class="">
<a href="mailto:Gluster-users@gluster.org" target="_blank" class="">Gluster-users@gluster.org</a><br class="">
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank" class="">https://lists.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div>
</div></blockquote></div><br class=""></div></div></div></div></blockquote></div><br class=""></div></body></html>