<div dir="ltr">Hi Strahil<div><br></div><div>Thanks for the quick answer. I will try to rsync them manually like you suggested.  </div><div>I am still on 4.2.x. I am in the process of moving my cluster to 4.3 but need to move to 4.2.8 first. But moving to 4.2.8 is not an easy task since I need to pin the base os to 7.6 before moving to 4.2.8. </div><div>Hope moving to 4.3 will be easy :-) ... I suspect 4.4 to be a pain to upgrade since there is no upgrade path from 7.8 -&gt; 8 ... :-(</div><div>Anyway thanks for the hints.</div><div><br></div><div>Regards</div><div>Carl</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Aug 7, 2020 at 2:00 PM Strahil Nikolov &lt;<a href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I think Ravi made a change to prevent that in gluster v6.6<br>
<br>
You can  rsync the  2 files from  ovhost1 and run a full heal (I don&#39;t know why heal without &#39;full&#39; doesn&#39;t clean up the entries).<br>
<br>
Anyways, ovirt can live without these 2 , but as you don&#39;t want to risk any downtimes  - just rsync them from ovhost1 and run a &#39;gluster volume heal data full&#39;.<br>
<br>
By the way , which version of ovirt do you use ? Gluster v3 was  used  in 4.2.X <br>
<br>
Best Regards,<br>
Strahil Nikolov<br>
<br>
<br>
<br>
На 7 август 2020 г. 20:14:07 GMT+03:00, carl langlois &lt;<a href="mailto:crl.langlois@gmail.com" target="_blank">crl.langlois@gmail.com</a>&gt; написа:<br>
&gt;Hi all,<br>
&gt;<br>
&gt;I am currently upgrading my ovirt cluster and after doing the upgrade<br>
&gt;on<br>
&gt;one node i end up having unsync entries that heal by the headl command.<br>
&gt;My setup is a 2+1  with 4 volume.<br>
&gt;here is a snapshot of one a volume info<br>
&gt;Volume Name: data<br>
&gt;Type: Replicate<br>
&gt;Volume ID: 71c999a4-b769-471f-8169-a1a66b28f9b0<br>
&gt;Status: Started<br>
&gt;Snapshot Count: 0<br>
&gt;Number of Bricks: 1 x (2 + 1) = 3<br>
&gt;Transport-type: tcp<br>
&gt;Bricks:<br>
&gt;Brick1: ovhost1:/gluster_bricks/data/data<br>
&gt;Brick2: ovhost2:/gluster_bricks/data/data<br>
&gt;Brick3: ovhost3:/gluster_bricks/data/data (arbiter)<br>
&gt;Options Reconfigured:<br>
&gt;server.allow-insecure: on<br>
&gt;nfs.disable: on<br>
&gt;transport.address-family: inet<br>
&gt;performance.quick-read: off<br>
&gt;performance.read-ahead: off<br>
&gt;performance.io-cache: off<br>
&gt;performance.low-prio-threads: 32<br>
&gt;network.remote-dio: enable<br>
&gt;cluster.eager-lock: enable<br>
&gt;cluster.quorum-type: auto<br>
&gt;cluster.server-quorum-type: server<br>
&gt;cluster.data-self-heal-algorithm: full<br>
&gt;cluster.locking-scheme: granular<br>
&gt;cluster.shd-max-threads: 8<br>
&gt;cluster.shd-wait-qlength: 10000<br>
&gt;features.shard: on<br>
&gt;user.cifs: off<br>
&gt;storage.owner-uid: 36<br>
&gt;storage.owner-gid: 36<br>
&gt;network.ping-timeout: 30<br>
&gt;performance.strict-o-direct: on<br>
&gt;cluster.granular-entry-heal: enable<br>
&gt;features.shard-block-size: 64MB<br>
&gt;<br>
&gt;Also the output of v headl data info<br>
&gt;<br>
&gt;gluster&gt; v heal data info<br>
&gt;Brick ovhost1:/gluster_bricks/data/data<br>
&gt;/4e59777c-5b7b-4bf1-8463-1c818067955e/dom_md/ids<br>
&gt;/__DIRECT_IO_TEST__<br>
&gt;Status: Connected<br>
&gt;Number of entries: 2<br>
&gt;<br>
&gt;Brick ovhost2:/gluster_bricks/data/data<br>
&gt;Status: Connected<br>
&gt;Number of entries: 0<br>
&gt;<br>
&gt;Brick ovhost3:/gluster_bricks/data/data<br>
&gt;/4e59777c-5b7b-4bf1-8463-1c818067955e/dom_md/ids<br>
&gt;/__DIRECT_IO_TEST__<br>
&gt;Status: Connected<br>
&gt;Number of entries: 2<br>
&gt;<br>
&gt;does not seem to be a split brain also.<br>
&gt;gluster&gt; v heal data info split-brain<br>
&gt;Brick ovhost1:/gluster_bricks/data/data<br>
&gt;Status: Connected<br>
&gt;Number of entries in split-brain: 0<br>
&gt;<br>
&gt;Brick ovhost2:/gluster_bricks/data/data<br>
&gt;Status: Connected<br>
&gt;Number of entries in split-brain: 0<br>
&gt;<br>
&gt;Brick ovhost3:/gluster_bricks/data/data<br>
&gt;Status: Connected<br>
&gt;Number of entries in split-brain: 0<br>
&gt;<br>
&gt;not sure how to resolve this issue.<br>
&gt;gluster version is 3.2.15<br>
&gt;<br>
&gt;Regards<br>
&gt;<br>
&gt;Carl<br>
</blockquote></div>