<div><br><div class="gmail_quote"><div>On Sun, 11 Jun 2017 at 16:35, Gandalf Corvotempesta &lt;<a href="mailto:gandalf.corvotempesta@gmail.com">gandalf.corvotempesta@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><br><div class="gmail_extra"><br><div class="gmail_quote">Il 11 giu 2017 1:00 PM, &quot;Atin Mukherjee&quot; &lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt; ha scritto:<blockquote class="m_-3103603829729539239quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_quote"><div>Yes. And please ensure you do this after bringing down all the glusterd instances and then once the peer file is removed from all the nodes restart glusterd on all the nodes one after another.</div></div></div></blockquote></div></div></div><div><br></div></div><div><div>If you have to bring down all gluster instances before file removal, you also bring down the whole gluster storage</div></div></blockquote><div><br></div><div>Until and unless server side quorum is not enabled that&#39;s not correct.  I/O path should be active even though management plane is down. We can still get this done by one node after another with out bringing down all glusterd instances at one go but just wanted to ensure the workaround is safe and clean.</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div></div><div></div></div>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div></div><div dir="ltr">-- <br></div><div data-smartmail="gmail_signature">--Atin</div>