<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Feb 27, 2018 at 5:35 PM, Dave Sherohman <span dir="ltr">&lt;<a href="mailto:dave@sherohman.org" target="_blank">dave@sherohman.org</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Tue, Feb 27, 2018 at 04:59:36PM +0530, Karthik Subrahmanya wrote:<br>
&gt; &gt; &gt; Since arbiter bricks need not be of same size as the data bricks, if you<br>
&gt; &gt; &gt; can configure three more arbiter bricks<br>
&gt; &gt; &gt; based on the guidelines in the doc [1], you can do it live and you will<br>
&gt; &gt; &gt; have the distribution count also unchanged.<br>
&gt; &gt;<br>
&gt; &gt; I can probably find one or more machines with a few hundred GB free<br>
&gt; &gt; which could be allocated for arbiter bricks if it would be sigificantly<br>
&gt; &gt; simpler and safer than repurposing the existing bricks (and I&#39;m getting<br>
&gt; &gt; the impression that it probably would be).<br>
&gt;<br>
&gt; Yes it is the simpler and safer way of doing that.<br>
&gt;<br>
&gt; &gt;   Does it particularly matter<br>
&gt; &gt; whether the arbiters are all on the same node or on three separate<br>
&gt; &gt; nodes?<br>
&gt; &gt;<br>
&gt;  No it doesn&#39;t matter as long as the bricks of same replica subvol are not<br>
&gt; on the same nodes.<br>
<br>
</span>OK, great.  So basically just install the gluster server on the new<br>
node(s), do a peer probe to add them to the cluster, and then<br>
<br>
gluster volume create palantir replica 3 arbiter 1 [saruman brick] [gandalf brick] [arbiter 1] [azathoth brick] [yog-sothoth brick] [arbiter 2] [cthulhu brick] [mordiggian brick] [arbiter 3]<br></blockquote><div>gluster volume add-brick &lt;volname&gt; replica 3 arbiter 1 &lt;arbiter 1&gt; &lt;arbiter 2&gt; &lt;arbiter 3&gt;<br></div><div>is the command. It will convert the existing volume to arbiter volume and add the specified bricks as arbiter bricks to the existing subvols.<br></div><div>Once they are successfully added, self heal should start automatically and you can check the status of heal using the command,<br></div><div>gluster volume heal &lt;volname&gt; info<br><br></div><div>Regards,<br>Karthik<br></div></div><br></div></div>