<div dir="ltr"><div dir="ltr"><div dir="ltr"><div>if the long GFID does not correspond to any file it could mean the file has been deleted by the client mounting the volume. I think this is caused when the delete was issued and the number of active bricks were not reaching quorum majority or a second brick was taken down while another was down or did not finish the selfheal, the latter more likely.<br></div><div>It would be interesting to see:</div><div>- what version of glusterfs you running, it happened to me with 3.12<br> </div><div>- volume quorum rules: &quot;gluster volume get vol all | grep quorum&quot;<br></div><div><br></div><div>To clean it up if i remember correctly it should be possible to delete the gfid entries from the brick mounts on the glusterfs server nodes reporting the files to heal.</div><div><br></div><div>As a side note you might want to consider changing the selfheal timeout to more agressive schedule in cluster.heal-timeout option<br></div></div></div></div>