<div dir="ltr"><div><div>Hello,</div><br>I tried reporting this in issue #4097 but got no response. Following on from issue #1741 and #3498, we were experiencing very slow response time accessing files on a GlusterFS 9.6 system on Ubuntu 18.04 server. The server in question is both a GlusterFS node and client.<br><br>Listing directory contents via the FUSE mount typically took 2-10 seconds, whereas a different client was fast. In mnt-glusterfs.log we saw lots of warnings like this:<br><br>[2023-04-03 20:16:14.789588 +0000] W [fuse-bridge.c:310:check_and_dump_fuse_W] 0-glusterfs-fuse: writing to fuse device yielded ENOENT 256 times<br><br>After running "echo 3 > /proc/sys/vm/drop_caches" as suggested in issue #1471 the response improved dramatically, to around 0.009s, the same as the other client.<br><br>Can you please advise how we should tune GlusterFS to avoid this problem? I see mention of the --lru-limit and --invalidate-limit options in that issue, but to be honest I don't understand how to use the warning messages to decide on a suitable value for those options. Thanks in advance.<br><br>Here are the GlusterFS details:<br><br>root@br:~# gluster volume info<br> <br>Volume Name: gvol0<br>Type: Replicate<br>Volume ID: 2d2c1552-bc93-4c91-b8ca-73553f00fdcd<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: br:/nodirectwritedata/gluster/gvol0<br>Brick2: sg:/nodirectwritedata/gluster/gvol0<br>Options Reconfigured:<br>cluster.min-free-disk: 20%<br>network.ping-timeout: 10<br>cluster.granular-entry-heal: on<br>storage.fips-mode-rchecksum: on<br>transport.address-family: inet<br>nfs.disable: on<br>performance.client-io-threads: off<br>storage.health-check-interval: 0<br>cluster.server-quorum-ratio: 50<br>root@br:~# <br>root@br:~# gluster volume status<br>Status of volume: gvol0<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick br:/nodirectwritedata/gluster/gvol0   49152     0          Y       4761 <br>Brick sg:/nodirectwritedata/gluster/gvol0   49152     0          Y       2329 <br>Self-heal Daemon on localhost               N/A       N/A        Y       5304 <br>Self-heal Daemon on sg                      N/A       N/A        Y       2629 <br> <br>Task Status of Volume gvol0<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br> <br>root@br:~# <br>root@br:~# gluster volume heal gvol0 info summary<br>Brick br:/nodirectwritedata/gluster/gvol0<br>Status: Connected<br>Total Number of entries: 0<br>Number of entries in heal pending: 0<br>Number of entries in split-brain: 0<br>Number of entries possibly healing: 0<br><br>Brick sg:/nodirectwritedata/gluster/gvol0<br>Status: Connected<br>Total Number of entries: 0<br>Number of entries in heal pending: 0<br>Number of entries in split-brain: 0<br>Number of entries possibly healing: 0<br><br></div><div>Thank you,</div><div><br></div><div>--<div><div dir="ltr" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div>David Cunningham, Voisonics Limited<br><a href="http://voisonics.com/" target="_blank">http://voisonics.com/</a><br>USA: +1 213 221 1092<br>New Zealand: +64 (0)28 2558 3782</div></div></div></div></div></div></div></div></div></div></div></div></div></div>