<div>Hi Nithya,<br></div><div><br></div><div>Thanks for the fast answer. Here the additional info:<br></div><div><br></div><div>1. gluster volume info<br></div><div><br></div><div>Volume Name: myvol-private<br></div><div>Type: Replicate<br></div><div>Volume ID: e7a40a1b-45c9-4d3c-bb19-0c59b4eceec5<br></div><div>Status: Started<br></div><div>Snapshot Count: 0<br></div><div>Number of Bricks: 1 x (2 + 1) = 3<br></div><div>Transport-type: tcp<br></div><div>Bricks:<br></div><div>Brick1: gfs1a:/data/myvol-private/brick<br></div><div>Brick2: gfs1b:/data/myvol-private/brick<br></div><div>Brick3: gfs1c:/srv/glusterfs/myvol-private/brick (arbiter)<br></div><div>Options Reconfigured:<br></div><div>features.default-soft-limit: 95%<br></div><div>transport.address-family: inet<br></div><div>features.quota-deem-statfs: on<br></div><div>features.inode-quota: on<br></div><div>features.quota: on<br></div><div>nfs.disable: on<br></div><div>performance.readdir-ahead: on<br></div><div>client.event-threads: 4<br></div><div>server.event-threads: 4<br></div><div>auth.allow: 192.168.100.92<br></div><div class="protonmail_signature_block protonmail_signature_block-empty"><div class="protonmail_signature_block-user protonmail_signature_block-empty"><div><br></div></div><div class="protonmail_signature_block-proton protonmail_signature_block-empty"><br></div></div><div><br></div><div>2. Sorry I have no clue how to take a "statedump" of a process on Linux. Which command should I use for that? and which process would you like, the blocked process (for example "ls")?<br></div><div><br></div><div>Regards,<br></div><div>M.<br></div><div><br></div><div>‐‐‐‐‐‐‐ Original Message ‐‐‐‐‐‐‐<br></div><div> On August 9, 2018 3:10 PM, Nithya Balachandran &lt;nbalacha@redhat.com&gt; wrote:<br></div><div> <br></div><blockquote type="cite" class="protonmail_quote"><div dir="ltr"><div>Hi,<br></div><div><br></div><div>Please provide the following:<br></div><div><ol><li>gluster volume info<br></li><li>statedump of the fuse process when it hangs<br></li></ol></div><div><br></div><div>Thanks,<br></div><div>Nithya<br></div></div><div class="gmail_extra"><div><br></div><div class="gmail_quote"><div>On 9 August 2018 at 18:24, mabi <span dir="ltr">&lt;<a href="mailto:mabi@protonmail.ch" target="_blank">mabi@protonmail.ch</a>&gt;</span> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>Hello,<br></div><div> <br></div><div> I recently upgraded my GlusterFS replica 2+1 (aribter) to version 3.12.12 and now I see a weird behaviour on my client (using FUSE mount) where I have processes (PHP 5.6 FPM) trying to access a specific directory and then the process blocks. I can't kill the process either, not even with kill -9. I need to reboot the machine in order to get rid of these blocked processes.<br></div><div> <br></div><div> This directory has one particularity compared to the other directories it is that it has reached it's quota soft-limit as you can see here in the output of gluster volume quota list:<br></div><div> <br></div><div> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Path&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Hard-limit&nbsp; Soft-limit&nbsp; &nbsp; &nbsp; Used&nbsp; Available&nbsp; Soft-limit exceeded? Hard-limit exceeded?<br></div><div> ------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>-------<br></div><div> /directory&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 100.0GB&nbsp; &nbsp; &nbsp;80%(80.0GB)&nbsp; &nbsp;90.5GB&nbsp; &nbsp;9.5GB&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Yes&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;No<br></div><div> <br></div><div> That does not mean that it is the quota's fault but it might be a hint where to start looking for... And by the way can someone explain me what the soft-limit does? or does it not do anything special?<br></div><div> <br></div><div> Here is an the linux stack of a blocking process on that directory which happened with a simple "ls -la":<br></div><div> <br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018] INFO: task ls:2272 blocked for more than 120 seconds.<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; &nbsp; &nbsp; &nbsp;Not tainted 3.16.0-4-amd64 #1<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018] "echo 0 &gt; /proc/sys/kernel/hung_task_<wbr>timeout_secs" disables this message.<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018] ls&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; D ffff88017ef93200&nbsp; &nbsp; &nbsp;0&nbsp; 2272&nbsp; &nbsp;2268 0x00000004<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; ffff88017653f490 0000000000000286 0000000000013200 ffff880174d7bfd8<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; 0000000000013200 ffff88017653f490 ffff8800eeb3d5f0 ffff8800fefac800<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; ffff880174d7bbe0 ffff8800eeb3d6d0 ffff8800fefac800 ffff8800ffe1e1c0<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018] Call Trace:<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffffa00dc50d&gt;] ? __fuse_request_send+0xbd/0x270 [fuse]<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff810abce0&gt;] ? prepare_to_wait_event+0xf0/<wbr>0xf0<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffffa00e0791&gt;] ? fuse_dentry_revalidate+0x181/<wbr>0x300 [fuse]<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff811b944e&gt;] ? lookup_fast+0x25e/0x2b0<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff811bacc5&gt;] ? path_lookupat+0x155/0x780<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff81195715&gt;] ? kmem_cache_alloc+0x75/0x480<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffffa00dfca9&gt;] ? fuse_getxattr+0xe9/0x150 [fuse]<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff811bb316&gt;] ? filename_lookup+0x26/0xc0<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff811bf594&gt;] ? user_path_at_empty+0x54/0x90<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff81193e08&gt;] ? kmem_cache_free+0xd8/0x210<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff811bf59f&gt;] ? user_path_at_empty+0x5f/0x90<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff811b3d46&gt;] ? vfs_fstatat+0x46/0x90<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff811b421d&gt;] ? SYSC_newlstat+0x1d/0x40<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff811d34b8&gt;] ? SyS_lgetxattr+0x58/0x80<br></div><div> [Thu Aug&nbsp; 9 14:21:07 2018]&nbsp; [&lt;ffffffff81525d0d&gt;] ? system_call_fast_compare_end+<wbr>0x10/0x15<br></div><div> <br></div><div> <br></div><div> My 3 gluster nodes are all Debian 9 and my client Debian 8.<br></div><div> <br></div><div> Let me know if you need more information.<br></div><div> <br></div><div> Best regards,<br></div><div> Mabi<br></div><div> ______________________________<wbr>_________________<br></div><div> Gluster-users mailing list<br></div><div> <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br></div><div> <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br></div></blockquote></div></div></blockquote><div><br></div>