I'm not so sure. Imagine that local copy needs healing (outdated). Then gluster will check if other node's copy is blaming the local one and if it's "GREEN" , it will read locally. This check to the other servers is the slowest part due to the lattency between the nodes.<div id="yMail_cursorElementTracker_1628135510379"><br></div><div id="yMail_cursorElementTracker_1628135510608">I guess the only way is to use the FUSE client mount options and manually change the source brick.</div><div id="yMail_cursorElementTracker_1628135561796"><br></div><div id="yMail_cursorElementTracker_1628135562007">Another option that comes to my mind is pacemaker with a IPaddr2 reaource and the option globally-unique=true. If done properly, pacemaker will bring the IP on all nodes, but using IPTABLES (manipulated automatically by the cluster) only 1 node will be active at a time with a preference to the fastest node.</div><div id="yMail_cursorElementTracker_1628135766556">Then the FUSE client can safely be configured to use that VIP, which in case of failure (of the fast node), will be moved to another node of the Gluster TSP.</div><div id="yMail_cursorElementTracker_1628135847358">Yet, this will be a very complex design.</div><div id="yMail_cursorElementTracker_1628135880801"><br></div><div id="yMail_cursorElementTracker_1628135881008"><br></div><div id="yMail_cursorElementTracker_1628135881213">Best Regards,</div><div id="yMail_cursorElementTracker_1628135884896">Strahil Nikolov</div><div id="yMail_cursorElementTracker_1628135847738"> <br> <blockquote style="margin: 0 0 20px 0;"> <div style="font-family:Roboto, sans-serif; color:#6D00F6;"> <div>On Wed, Aug 4, 2021 at 22:28, Gionatan Danti</div><div><g.danti@assyoma.it> wrote:</div> </div> <div style="padding: 10px 0 0 20px; margin: 10px 0 0 0; border-left: 1px solid #6D00F6;"> Il 2021-08-03 19:51 Strahil Nikolov ha scritto:<br clear="none">> The difference between thin and usual arbiter is that the thin arbiter<br clear="none">> takes in action only when it's needed (one of the data bricks is down)<br clear="none">> , so the thin arbiter's lattency won't affect you as long as both data<br clear="none">> bricks are running.<br clear="none">> <br clear="none">> Keep in mind that thin arbiter is less used. For example, I have never<br clear="none">> deployed a thin arbiter.<br clear="none"><br clear="none">Maybe I am horribly wrong, but local-node reads should *not* involve <br clear="none">other nodes in any manner - ie: no checksum or voting is done for read. <br clear="none">AFR hashing should spread different files to different nodes when doing <br clear="none">striping, but for mirroring any node should have a valid copy of the <br clear="none">requested data.<br clear="none"><br clear="none">So when using choose-local all reads which can really be local (ie: the <br clear="none">requested file is available) should not suffer from remote party <br clear="none">latency.<br clear="none">Is that correct?<div class="yqt7386034960" id="yqtfd32580"><br clear="none"><br clear="none">Thanks.</div><br clear="none"><br clear="none">-- <br clear="none">Danti Gionatan<br clear="none">Supporto Tecnico<br clear="none">Assyoma S.r.l. - www.assyoma.it<br clear="none">email: <a shape="rect" ymailto="mailto:g.danti@assyoma.it" href="mailto:g.danti@assyoma.it">g.danti@assyoma.it</a> - <a shape="rect" ymailto="mailto:info@assyoma.it" href="mailto:info@assyoma.it">info@assyoma.it</a><br clear="none">GPG public key ID: FF5F32A8<div class="yqt7386034960" id="yqtfd30103"><br clear="none"></div> </div> </blockquote></div>