<div dir="auto"><div>Hi Kevin,<br><div class="gmail_extra"><br><div class="gmail_quote">On 27 Jan 2017 16:20, &quot;Kevin Lemonnier&quot; &lt;<a href="mailto:lemonnierk@ulrar.net">lemonnierk@ulrar.net</a>&gt; wrote:<br type="attribution"><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="elided-text">On Fri, Jan 27, 2017 at 02:45:46PM -0300, Gambit15 wrote:<br>
&gt; Hey guys,<br>
&gt;  Would anyone be able to tell me the name/location of the gluster client<br>
&gt; log when mounting through libgfapi?<br>
&gt;<br>
<br>
</div>Nowhere, unfortunatly. If you are talking about KVM (qemu) you&#39;ll get it<br>
on the stdout of the VM, which can be annoying to get depending on what<br>
you are using.<br></blockquote></div></div></div><div dir="auto"><br></div><div dir="auto">I&#39;m using oVirt 4, which whilst backed by KVM, I&#39;m aware has a few defaults which differ from pure KVM.</div><div dir="auto"><br></div><div dir="auto">On the gluster side, I&#39;m running 3.8 in a (2+1)x2 setup &amp; default server quorum settings.</div><div dir="auto"><br></div><div dir="auto">Basically, every now &amp; then I notice random VHD images popping up in the heal queue, and they&#39;re almost always in pairs, &quot;healing&quot; the same file on 2 of the 3 replicate bricks.</div><div dir="auto">That already strikes me as odd, as if a file is &quot;dirty&quot; on more than one brick, surely that&#39;s a split-brain scenario? (nothing logged in &quot;info split-brain&quot; though)</div><div dir="auto"><br></div><div dir="auto">Anyway, these heal processes always hang around for a couple of hours, even when it&#39;s just metadata on an arbiter brick.</div><div dir="auto">That doesn&#39;t make sense to me, an arbiter shouldn&#39;t take more than a couple of seconds to heal!?</div><div dir="auto"><br></div><div dir="auto">I spoke with Joe on IRC, and he suggested I&#39;d find more info in the client&#39;s logs...</div><div dir="auto"><br></div></div>