<div dir="ltr">Hi,<div><br></div><div>With replica 2 volumes one can easily end up in split-brains if there are frequent disconnects and high IOs going on.</div><div>If you use replica 3 or arbiter volumes, it will guard you by using the quorum mechanism giving you both consistency and availability.</div><div>But in replica 2 volumes, quorum does not make sense since it needs both the nodes up to guarantee consistency, which costs availability.</div><div><br></div><div>If you can consider having a replica 3 or arbiter volumes it would be great. Otherwise you can anyway go ahead and continue with the replica 2 volume</div><div>by selecting  *y* for the warning message. It will create the replica 2 configuration as you wanted.</div><div><br></div><div>HTH,</div><div>Karthik</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Apr 27, 2018 at 10:56 AM, Thing <span dir="ltr">&lt;<a href="mailto:thing.thing@gmail.com" target="_blank">thing.thing@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi,<div><br></div><div>I have 4 servers each with 1TB of storage set as /dev/sdb1, I would like to set these up in a raid 10 which will? give me 2TB useable.  So Mirrored and concatenated? </div><div><br></div><div>The command I am running is as per documents but I get a warning error,  how do I get this to proceed please as the documents do not say.</div><div><br></div><div><div>gluster volume create gv0 replica 2 glusterp1:/bricks/brick1/gv0 glusterp2:/bricks/brick1/gv0 glusterp3:/bricks/brick1/gv0 glusterp4:/bricks/brick1/gv0</div><div>Replica 2 volumes are prone to split-brain. Use Arbiter or Replica 3 to avoid this. See: <a href="http://docs.gluster.org/en/latest/Administrator%20Guide/Split%20brain%20and%20ways%20to%20deal%20with%20it/" target="_blank">http://docs.gluster.org/en/<wbr>latest/Administrator%20Guide/<wbr>Split%20brain%20and%20ways%<wbr>20to%20deal%20with%20it/</a>.</div><div>Do you still want to continue?</div><div> (y/n) n</div><div><br></div><div>Usage:</div><div>volume create &lt;NEW-VOLNAME&gt; [stripe &lt;COUNT&gt;] [replica &lt;COUNT&gt; [arbiter &lt;COUNT&gt;]] [disperse [&lt;COUNT&gt;]] [disperse-data &lt;COUNT&gt;] [redundancy &lt;COUNT&gt;] [transport &lt;tcp|rdma|tcp,rdma&gt;] &lt;NEW-BRICK&gt;?&lt;vg_name&gt;... [force]</div><div><br></div><div>[root@glustep1 ~]# </div></div><div><br></div><div>thanks</div></div>
<br>______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br></blockquote></div><br></div>