<div dir="auto">Yeah..zo the right procedure should be to setup a new volume without sharding and copy everything over. </div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, 28 Nov 2019, 06:45 Strahil, &lt;<a href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">I have already tried disabling sharding on a test oVirt volume... The results were devastating for the app, so please do not disable sharding.</p>
<p dir="ltr">Best Regards,<br>
Strahil Nikolov</p>
<div>On Nov 27, 2019 20:55, Olaf Buitelaar &lt;<a href="mailto:olaf.buitelaar@gmail.com" target="_blank" rel="noreferrer">olaf.buitelaar@gmail.com</a>&gt; wrote:<br type="attribution"><blockquote style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Tim,<div><br></div><div>That issue also seems to point to a stale file. Best i suppose is first to determine if you indeed have the same shard on different sub-volumes, where on one of the sub-volumes the file size is 0KB and has the stick bit set. if so we suffer from the same issue, and you can clean those files up, so the `rm` command should start working again.</div><div>Essentially you should consider the volume unhealty until you have resolved the stale files, before you can continue file operations. Remounting the client shouldn&#39;t make a difference since the issue is at brick/sub-volume level.</div><div><br></div><div>the last comment i received from Krutika;</div><div>&quot;I haven&#39;t had the chance to look into the attachments yet. I got another customer case on me.</div><div>But from the description, it seems like the linkto file (the one with a &#39;T&#39;) and the original file don&#39;t have the same gfid?<br></div><div>It&#39;s not wrong for those &#39;T&#39; files to exist. But they&#39;re supposed to have the same gfid.<br></div><div>This is something that needs DHT team&#39;s attention.</div><div>Do you mind raising a bug in <a href="http://bugzilla.redhat.com/" target="_blank" rel="noreferrer">bugzilla.redhat.com</a> against glusterfs and component &#39;distribute&#39; or &#39;DHT&#39;?&quot;</div><div><br></div><div><br></div><div>For me replicating it was easiest with running xfs_fsr (which is very write intensive in fragmented volumes) from within a VM, but it could happen with a simple yum install.. docker run (with new image)..general test with dd, mkfs.xfs or just random, which was the normal case. But i&#39;ve to say my workload is mostly write intensive, like yours.</div><div><br></div><div>Sharding in general is a nice feature, it allows your files to be broken up into peaces, which is also it&#39;s biggest danger..if anything goes haywire, it&#39;s currently practically impossible to stitch all those peaces together again, since no tool for this seems to exists..which is the nice thing about none-sharded volumes, they are just files..but if you really wanted i suppose it could be done. But would be very painful..i suppose.</div><div>With the files being in shard&#39;s it allows  for much more equal distribution. Also heals seem to resolve much quicker.</div><div>I&#39;m also running none sharded volumes, with files of 100GB+ and those heals can take significantly longer. And those none sharded volumes i also sometime&#39;s have issues with..however not remembering any stale files.</div><div>But if you don&#39;t need it you might be better of disabling it. However i believe you&#39;re never allowed to turn of sharding on a sharded volumes since it will corrupt your data.</div><div><br></div><div>Best Olaf</div><br><div><div dir="ltr">Op wo 27 nov. 2019 om 19:19 schreef Timothy Orme &lt;<a href="mailto:torme@ancestry.com" target="_blank" rel="noreferrer">torme@ancestry.com</a>&gt;:<br></div><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">




<div dir="ltr">
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Hi Olaf,</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Thanks so much for sharing this, it&#39;s hugely helpful, if only to make me feel less like I&#39;m going crazy.  I&#39;ll see if theres anything I can add to the bug report.  I&#39;m trying to develop a test to reproduce the issue now.<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
We&#39;re running this in a sort of interactive HPC environment, so these error are a bit hard for us to systematically handle, and they have a tendency to be quite disruptive to folks work.</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
I&#39;ve run into other issues with sharding as well, such as this: <a href="https://lists.gluster.org/pipermail/gluster-users/2019-October/037241.html" target="_blank" rel="noreferrer">
</a><a href="https://lists.gluster.org/pipermail/gluster-users/2019-October/037241.html" target="_blank" rel="noreferrer">https://lists.gluster.org/pipermail/gluster-users/2019-October/037241.html</a><br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
I&#39;m wondering then, if maybe sharding isn&#39;t quite stable yet and it&#39;s more sensible for me to just disable this feature for now?  I&#39;m not quite sure what other implications that might have but so far all the issues I&#39;ve run into so far as a new gluster user
 seem like they&#39;re related to shards.</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Thanks,</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Tim<br>
</div>
<div></div>
<hr style="display:inline-block;width:98%">
<div dir="ltr"><font face="Calibri, sans-serif" style="font-size:11pt" color="#000000"><b>From:</b> Olaf Buitelaar &lt;<a href="mailto:olaf.buitelaar@gmail.com" target="_blank" rel="noreferrer">olaf.buitelaar@gmail.com</a>&gt;<br>
<b>Sent:</b> Wednesday, November 27, 2019 9:50 AM<br>
<b>To:</b> Timothy Orme &lt;<a href="mailto:torme@ancestry.com" target="_blank" rel="noreferrer">torme@ancestry.com</a>&gt;<br>
<b>Cc:</b> gluster-users &lt;<a href="mailto:gluster-users@gluster.org" target="_blank" rel="noreferrer">gluster-users@gluster.org</a>&gt;<br>
<b>Subject:</b> [EXTERNAL] Re: [Gluster-users] Stale File Handle Errors During Heavy Writes</font>
<div> </div>
</div>
<div>
<div dir="ltr">Hi Tim,
<div><br>
</div>
<div>i&#39;ve been suffering from this also for a long time, not sure if it&#39;s exact the same situation since your setup is different. But it seems similar.</div>
<div>i&#39;ve filed this bug report; <a href="https://urldefense.proofpoint.com/v2/url?u=https-3A__bugzilla.redhat.com_show-5Fbug.cgi-3Fid-3D1732961&amp;d=DwMFaQ&amp;c=kKqjBR9KKWaWpMhASkPbOg&amp;r=d0SJB4ihnau-Oyws6GEzcipkV9DfxCuMbgdSRgXeuxM&amp;m=Nh3Ca9VCh4XnpEF6imXwTa2NUUglz-XZQhfG8-AyOVU&amp;s=GbJiS8pLGORzLwdgt0ypnnQxQgRhrTHdGXEizatE9g0&amp;e=" target="_blank" rel="noreferrer">https://bugzilla.redhat.com/show_bug.cgi?id=1732961</a> for
 which you might be able to enrich.</div>
<div>To solve the stale files i&#39;ve made this bash script; <a href="https://urldefense.proofpoint.com/v2/url?u=https-3A__gist.github.com_olafbuitelaar_ff6fe9d4ab39696d9ad6ca689cc89986&amp;d=DwMFaQ&amp;c=kKqjBR9KKWaWpMhASkPbOg&amp;r=d0SJB4ihnau-Oyws6GEzcipkV9DfxCuMbgdSRgXeuxM&amp;m=Nh3Ca9VCh4XnpEF6imXwTa2NUUglz-XZQhfG8-AyOVU&amp;s=CvN0yMFI03czcHgzTeexTfP9h4woiAO_XVyn1umHR8g&amp;e=" target="_blank" rel="noreferrer">https://gist.github.com/olafbuitelaar/ff6fe9d4ab39696d9ad6ca689cc89986</a> (it&#39;s
 slightly outdated) which you could use as inspiration, it basically removes the stale files as suggested here; <a href="https://urldefense.proofpoint.com/v2/url?u=https-3A__lists.gluster.org_pipermail_gluster-2Dusers_2018-2DMarch_033785.html&amp;d=DwMFaQ&amp;c=kKqjBR9KKWaWpMhASkPbOg&amp;r=d0SJB4ihnau-Oyws6GEzcipkV9DfxCuMbgdSRgXeuxM&amp;m=Nh3Ca9VCh4XnpEF6imXwTa2NUUglz-XZQhfG8-AyOVU&amp;s=MGGOwcqFQ8DwBK3MDoMxO-MD6_wrmojY1T9GYqE8WOs&amp;e=" target="_blank" rel="noreferrer">https://lists.gluster.org/pipermail/gluster-users/2018-March/033785.html</a> .
 Please be aware the script won&#39;t work if you have  2 (or more) bricks of the same volume on the same server (since it always takes the first path found).</div>
<div>I invoke the script via ansible like this (since the script needs to run on all bricks);</div>
<div>- hosts: host1,host2,host3<br>
  tasks:<br>
    - shell: &#39;bash /root/<a href="http://clean-stale-gluster-fh.sh" target="_blank" rel="noreferrer">clean-stale-gluster-fh.sh</a> --host=&quot;{{ intif.ip | first }}&quot; --volume=ovirt-data --backup=&quot;/backup/stale/gfs/ovirt-data&quot; --shard=&quot;{{ item }}&quot; --force&#39;<br>
      with_items:<br>
        - 1b0ba5c2-dd2b-45d0-9c4b-a39b2123cc13.14451<br>
</div>
<div><br>
</div>
<div>fortunately for me the issue seems to be disappeared, since it&#39;s now about 1 month i received one, while before it was about every other day. </div>
<div>The biggest thing the seemed to resolve it was more disk space. while before there was also plenty the gluster volume was at about 85% full, and the individual disk had about 20-30% free of 8TB disk array, but had servers in the mix with smaller disk array&#39;s
 but with similar available space (in percents). i&#39;m now at much lower percentage. </div>
<div>So my latest running theory is that it has something todo with how gluster allocates the shared&#39;s, since it&#39;s based on it&#39;s hash it might want to place it in a certain sub-volume, but than comes to the conclusion it has not enough space there, writes a
 marker to redirect it to another sub-volume (thinking this is the stale file). However rebalances don&#39;t fix this issue.  Also this still doesn&#39;t seem explain that most stale files always end up in the first sub-volume.</div>
<div>Unfortunate i&#39;ve no proof this is actually the root cause, besides that the symptom &quot;disappeared&quot; once gluster had more space to work with.</div>
<div><br>
</div>
<div>Best Olaf</div>
<br>
<div>
<div dir="ltr">Op wo 27 nov. 2019 om 02:38 schreef Timothy Orme &lt;<a href="mailto:torme@ancestry.com" target="_blank" rel="noreferrer">torme@ancestry.com</a>&gt;:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr">
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Hi All,</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
I&#39;m running a 3x2 cluster, v6.5.  Not sure if its relevant, but also have sharding enabled.</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
I&#39;ve found that when under heavy write load, clients start erroring out with &quot;stale file handle&quot; errors, on files not related to the writes.</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
For instance, when a user is running a simple wc against a file, it will bail during that operation with &quot;stale file&quot;<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
When I check the client logs, I see errors like:</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
[2019-11-26 22:41:33.565776] E [MSGID: 109040] [dht-helper.c:1336:dht_migration_complete_check_task] 3-scratch-dht: 24d53a0e-c28d-41e0-9dbc-a75e823a3c7d: failed to lookup the file on scratch-dht 
[Stale file handle]<br>

<div>[2019-11-26 22:41:33.565853] W [fuse-bridge.c:2827:fuse_readv_cbk] 0-glusterfs-fuse: 33112038: READ =&gt; -1 gfid=147040e2-a6b8-4f54-8490-f0f3df29ee50 fd=0x7f95d8d0b3f8 (Stale file handle)<br>
</div>
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
I&#39;ve seen some bugs or other threads referencing similar issues, but couldn&#39;t really discern a solution from them.</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Is this caused by some consistency issue with metadata while under load or something else?  I dont see the issue when heavy reads are occurrring.<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Any help is greatly appreciated!<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Thanks!</div>
<div style="font-family:&#39;calibri&#39;,&#39;arial&#39;,&#39;helvetica&#39;,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Tim<br>
</div>
</div>
________<br>
<br>
Community Meeting Calendar:<br>
<br>
APAC Schedule -<br>
Every 2nd and 4th Tuesday at 11:30 AM IST<br>
Bridge: <a href="https://urldefense.proofpoint.com/v2/url?u=https-3A__bluejeans.com_441850968&amp;d=DwMFaQ&amp;c=kKqjBR9KKWaWpMhASkPbOg&amp;r=d0SJB4ihnau-Oyws6GEzcipkV9DfxCuMbgdSRgXeuxM&amp;m=Nh3Ca9VCh4XnpEF6imXwTa2NUUglz-XZQhfG8-AyOVU&amp;s=JHDxrPUb-16_6j_D-rhVhXtDR9h4OwPyylW4ScTmygE&amp;e=" target="_blank" rel="noreferrer">
</a><a href="https://bluejeans.com/441850968" target="_blank" rel="noreferrer">https://bluejeans.com/441850968</a><br>
<br>
NA/EMEA Schedule -<br>
Every 1st and 3rd Tuesday at 01:00 PM EDT<br>
Bridge: <a href="https://urldefense.proofpoint.com/v2/url?u=https-3A__bluejeans.com_441850968&amp;d=DwMFaQ&amp;c=kKqjBR9KKWaWpMhASkPbOg&amp;r=d0SJB4ihnau-Oyws6GEzcipkV9DfxCuMbgdSRgXeuxM&amp;m=Nh3Ca9VCh4XnpEF6imXwTa2NUUglz-XZQhfG8-AyOVU&amp;s=JHDxrPUb-16_6j_D-rhVhXtDR9h4OwPyylW4ScTmygE&amp;e=" target="_blank" rel="noreferrer">
</a><a href="https://bluejeans.com/441850968" target="_blank" rel="noreferrer">https://bluejeans.com/441850968</a><br>
<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank" rel="noreferrer">Gluster-users@gluster.org</a><br>
<a href="https://urldefense.proofpoint.com/v2/url?u=https-3A__lists.gluster.org_mailman_listinfo_gluster-2Dusers&amp;d=DwMFaQ&amp;c=kKqjBR9KKWaWpMhASkPbOg&amp;r=d0SJB4ihnau-Oyws6GEzcipkV9DfxCuMbgdSRgXeuxM&amp;m=Nh3Ca9VCh4XnpEF6imXwTa2NUUglz-XZQhfG8-AyOVU&amp;s=gPJBHZbzGbDnozrJuLTslUXJdPrLDrR2rT86P1uUuPk&amp;e=" target="_blank" rel="noreferrer">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote>
</div>
</div>
</div>
</div>

</blockquote></div></div>
</blockquote></div></blockquote></div>