<div dir="ltr"><div dir="ltr"></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Oct 16, 2019 at 11:08 PM deepu srinivasan &lt;<a href="mailto:sdeepugd@gmail.com">sdeepugd@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi Users<div>Is there a single point of failure in GeoReplication for gluster? <br>My Case: <br>I Use 3 nodes in both master and slave volume.<br>Master volume : Node1,Node2,Node3<br>Slave Volume : Node4,Node5,Node6<br>I tried to recreate the scenario to test a single point of failure.</div><div><br></div><div>Geo-Replication Status:</div><div><b><br></b></div><div><b>Master Node         Slave Node         Status </b></div><div>Node1                   Node4                  Active</div><div>Node2                   Node4                  Passive<br></div><div>Node3                   Node4                  Passive<br></div><div><br></div><div>Step 1: Stoped the glusterd daemon in Node4.<br>Result: There were only two-node statuses like the one below.</div><div><br><div><b>Master Node         Slave Node         Status </b></div><div>Node2                   Node4                  Passive<br></div><div>Node3                   Node4                  Passive</div><br></div><div><br></div><div>Will the GeoReplication session goes down if the primary slave is down?</div></div>
</blockquote></div><div><br></div><div><br></div><div>Hi Deepu,</div><div><br></div><div>Geo-replication depends on a primary slave node to get the information about other nodes which are part of Slave Volume.</div><div><br></div><div>Once the workers are started, it is not dependent on the primary slave node. Will not fail if a primary goes down. But if any other node goes down then the worker will try to connect to some other node, for which it tries to run Volume status command on the slave node using the following command.</div><div><br></div><div>```</div><div>ssh -i &lt;georep-pem&gt; &lt;primary-node&gt; gluster volume status &lt;slavevol&gt;<br></div><div>```</div><div><br></div><div>The above command will fail and Worker will not get the list of Slave nodes to which it can connect to.</div><div><br></div><div>This is only a temporary failure until the primary node comes back online. If the primary node is permanently down then run Geo-rep delete and Geo-rep create command again with the new primary node. (Note: Geo-rep Delete and Create will remember the last sync time and resume once it starts)</div><div><br></div><div>I will evaluate the possibility of caching a list of Slave nodes so that it can be used as a backup primary node in case of failures. I will open Github issue for the same.</div><div><br></div><div>Thanks for reporting the issue.<br></div><div></div><br>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div>regards<br></div>Aravinda VK<br></div></div></div></div></div></div></div>