<div>                Any issues reported in /var/log/glusterfs/glfsheal-*.log ?<br><br>The easiest way to identify the affected entries is to run:<br>find /FULL/PATH/TO/BRICK/ -samefile /FULL/PATH/TO/BRICK/.glusterfs/57/e4/57e428c7-6bed-4eb3-b9bd-02ca4c46657a<br><br><br>Best Regards,<br>Strahil Nikolov<br><br><br>            </div>            <div class="yahoo_quoted" style="margin:10px 0px 0px 0.8ex;border-left:1px solid #ccc;padding-left:1ex;">                        <div style="font-family:'Helvetica Neue', Helvetica, Arial, sans-serif;font-size:13px;color:#26282a;">                                <div>                    В вторник, 31 януари 2023 г., 11:58:24 ч. Гринуич+2, Diego Zuccato <diego.zuccato@unibo.it> написа:                </div>                <div><br></div>                <div><br></div>                <div><div dir="ltr">Hello all.<br></div><div dir="ltr"><br></div><div dir="ltr">I've had one of the 3 nodes serving a "replica 3 arbiter 1" down for <br></div><div dir="ltr">some days (apparently RAM issues, but actually failing mobo).<br></div><div dir="ltr">The other nodes have had some issues (RAM exhaustion, old problem <br></div><div dir="ltr">already ticketed but still no solution) and some brick processes <br></div><div dir="ltr">coredumped. Restarting the processes allowed the cluster to continue <br></div><div dir="ltr">working. Mostly.<br></div><div dir="ltr"><br></div><div dir="ltr">After the third server got fixed I started a heal, but files didn't get <br></div><div dir="ltr">healed and count (by "ls -l <br></div><div dir="ltr">/srv/bricks/*/d/.glusterfs/indices/xattrop/|grep ^-|wc -l") did not <br></div><div dir="ltr">decrease over 2 days. So, to recover I copied files from bricks to temp <br></div><div dir="ltr">storage (keeping both copies of conflicting files with different <br></div><div dir="ltr">contents), removed files on bricks and arbiters, and finally copied back <br></div><div dir="ltr">from temp storage to the volume.<br></div><div dir="ltr"><br></div><div dir="ltr">Now the files are accessible but I still see lots of entries like<br></div><div dir="ltr"><gfid:57e428c7-6bed-4eb3-b9bd-02ca4c46657a><br></div><div dir="ltr"><br></div><div dir="ltr">IIUC that's due to a mismatch between .glusterfs/ contents and normal <br></div><div dir="ltr">hierarchy. Is there some tool to speed up the cleanup?<br></div><div dir="ltr"><br></div><div dir="ltr">Tks.<br></div><div dir="ltr"><br></div><div dir="ltr">-- <br></div><div dir="ltr">Diego Zuccato<br></div><div dir="ltr">DIFA - Dip. di Fisica e Astronomia<br></div><div dir="ltr">Servizi Informatici<br></div><div dir="ltr">Alma Mater Studiorum - Università di Bologna<br></div><div dir="ltr">V.le Berti-Pichat 6/2 - 40127 Bologna - Italy<br></div><div dir="ltr">tel.: +39 051 20 95786<br></div><div dir="ltr">________<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">Community Meeting Calendar:<br></div><div dir="ltr"><br></div><div dir="ltr">Schedule -<br></div><div dir="ltr">Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br></div><div dir="ltr">Bridge: <a href="https://meet.google.com/cpu-eiue-hvk" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br></div><div dir="ltr">Gluster-users mailing list<br></div><div dir="ltr"><a ymailto="mailto:Gluster-users@gluster.org" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br></div><div dir="ltr"><a href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br></div></div>            </div>                </div>