<html><body><div style="font-family: times new roman,new york,times,serif; font-size: 12pt; color: #000000"><div>Hi,<br></div><div><br></div><div>Parallel-readdir is an experimental feature for 3.10, can you disable performance.parallel-readdir option and see if the files are visible? Does the unmount-mount help?<br></div><div>Also If you want to use parallel-readdir in production please use 3.11 or greater.<br></div><div><br></div><div>Regards,<br></div><div>Poornima<br></div><div><br></div><hr id="zwchr"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;" data-mce-style="border-left: 2px solid #1010FF; margin-left: 5px; padding-left: 5px; color: #000; font-weight: normal; font-style: normal; text-decoration: none; font-family: Helvetica,Arial,sans-serif; font-size: 12pt;"><b>From: </b>"Alastair Neil" &lt;ajneil.tech@gmail.com&gt;<br><b>To: </b>"gluster-users" &lt;Gluster-users@gluster.org&gt;<br><b>Sent: </b>Wednesday, October 11, 2017 3:29:10 AM<br><b>Subject: </b>Re: [Gluster-users] small files performance<br><div><br></div><div dir="ltr"><div><div>I just tried setting:<br><div><br></div>performance.parallel-readdir on<br>features.cache-invalidation on<br>features.cache-invalidation-timeout 600<br>performance.stat-prefetch<br>performance.cache-invalidation<br>performance.md-cache-timeout 600<br>network.inode-lru-limit 50000<br>performance.cache-invalidation on<br><div><br></div></div>and clients could not see their files with ls when accessing via a fuse mount.&nbsp; The files and directories were there, however, if you accessed them directly. Server are 3.10.5 and the clients are 3.10 and 3.12.<br><div><br></div></div>Any ideas?<br><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On 10 October 2017 at 10:53, Gandalf Corvotempesta <span dir="ltr">&lt;<a href="mailto:gandalf.corvotempesta@gmail.com" target="_blank" data-mce-href="mailto:gandalf.corvotempesta@gmail.com">gandalf.corvotempesta@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex" data-mce-style="margin: 0 0 0 .8ex; border-left: 1px #ccc solid; padding-left: 1ex;"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">2017-10-10 8:25 GMT+02:00 Karan Sandha <span dir="ltr">&lt;<a href="mailto:ksandha@redhat.com" target="_blank" data-mce-href="mailto:ksandha@redhat.com">ksandha@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" data-mce-style="margin: 0px 0px 0px 0.8ex; border-left: 1px solid #cccccc; padding-left: 1ex;"><div dir="ltr">Hi Gandalf,<div><br></div><div>We have multiple tuning to do for small-files which decrease the time for negative lookups , meta-data caching, parallel readdir. Bumping the server and client event threads will help you out in increasing the small file performance.&nbsp;</div><div><br></div><div>gluster v set &lt;vol-name&gt;&nbsp; group metadata-cache</div><div>gluster v set &lt;vol-name&gt; group nl-cache</div><div>gluster v set &lt;vol-name&gt; performance.parallel-readdir on (Note : readdir should be on)</div></div></blockquote><div><br></div><div>This is what i'm getting with suggested parameters.</div><div>I'm running "fio" from a mounted gluster client:</div><div><div>172.16.0.12:/gv0 on /mnt2 type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)</div></div><div><br></div><div><br></div><div><br></div><div><div># fio --ioengine=libaio &nbsp; &nbsp; --filename=fio.test &nbsp; &nbsp; --size=256M &nbsp; &nbsp; --direct=1 &nbsp; &nbsp; --rw=randrw &nbsp; &nbsp; --refill_buffers &nbsp; &nbsp; --norandommap &nbsp; &nbsp; --bs=8k &nbsp; &nbsp; --rwmixread=70 &nbsp; &nbsp; --iodepth=16 &nbsp; &nbsp; --numjobs=16 &nbsp; &nbsp; --runtime=60 &nbsp; &nbsp; --group_reporting &nbsp; &nbsp; --name=fio-test</div><div>fio-test: (g=0): rw=randrw, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=16</div><div>...</div><div>fio-2.16</div><div>Starting 16 processes</div><div>fio-test: Laying out IO file(s) (1 file(s) / 256MB)</div><div>Jobs: 14 (f=13): [m(5),_(1),m(8),f(1),_(1)] [33.9% done] [1000KB/440KB/0KB /s] [125/55/0 iops] [eta 01m:59s]</div><div>fio-test: (groupid=0, jobs=16): err= 0: pid=2051: Tue Oct 10 16:51:46 2017</div><div>&nbsp; read : io=43392KB, bw=733103B/s, iops=89, runt= 60610msec</div><div>&nbsp; &nbsp; slat (usec): min=14, max=1992.5K, avg=177873.67, stdev=382294.06</div><div>&nbsp; &nbsp; clat (usec): min=768, max=6016.8K, avg=1871390.57, stdev=1082220.06</div><div>&nbsp; &nbsp; &nbsp;lat (usec): min=872, max=6630.6K, avg=2049264.23, stdev=1158405.41</div><div>&nbsp; &nbsp; clat percentiles (msec):</div><div>&nbsp; &nbsp; &nbsp;| &nbsp;1.00th=[ &nbsp; 20], &nbsp;5.00th=[ &nbsp;208], 10.00th=[ &nbsp;457], 20.00th=[ &nbsp;873],</div><div>&nbsp; &nbsp; &nbsp;| 30.00th=[ 1237], 40.00th=[ 1516], 50.00th=[ 1795], 60.00th=[ 2073],</div><div>&nbsp; &nbsp; &nbsp;| 70.00th=[ 2442], 80.00th=[ 2835], 90.00th=[ 3326], 95.00th=[ 3785],</div><div>&nbsp; &nbsp; &nbsp;| 99.00th=[ 4555], 99.50th=[ 4948], 99.90th=[ 5211], 99.95th=[ 5800],</div><div>&nbsp; &nbsp; &nbsp;| 99.99th=[ 5997]</div><div>&nbsp; write: io=18856KB, bw=318570B/s, iops=38, runt= 60610msec</div><div>&nbsp; &nbsp; slat (usec): min=17, max=3428, avg=212.62, stdev=287.88</div><div>&nbsp; &nbsp; clat (usec): min=59, max=6015.6K, avg=1693729.12, stdev=1003122.83</div><div>&nbsp; &nbsp; &nbsp;lat (usec): min=79, max=6015.9K, avg=1693941.74, stdev=1003126.51</div><div>&nbsp; &nbsp; clat percentiles (usec):</div><div>&nbsp; &nbsp; &nbsp;| &nbsp;1.00th=[ &nbsp;724], &nbsp;5.00th=[144384], 10.00th=[403456], 20.00th=[765952],</div><div>&nbsp; &nbsp; &nbsp;| 30.00th=[1105920], 40.00th=[1368064], 50.00th=[1630208], 60.00th=[1875968],</div><div>&nbsp; &nbsp; &nbsp;| 70.00th=[2179072], 80.00th=[2572288], 90.00th=[3031040], 95.00th=[3489792],</div><div>&nbsp; &nbsp; &nbsp;| 99.00th=[4227072], 99.50th=[4423680], 99.90th=[4751360], 99.95th=[5210112],</div><div>&nbsp; &nbsp; &nbsp;| 99.99th=[5996544]</div><div>&nbsp; &nbsp; lat (usec) : 100=0.15%, 250=0.05%, 500=0.06%, 750=0.09%, 1000=0.05%</div><div>&nbsp; &nbsp; lat (msec) : 2=0.28%, 4=0.09%, 10=0.15%, 20=0.39%, 50=1.81%</div><div>&nbsp; &nbsp; lat (msec) : 100=1.02%, 250=1.63%, 500=5.59%, 750=6.03%, 1000=7.31%</div><div>&nbsp; &nbsp; lat (msec) : 2000=35.61%, &gt;=2000=39.67%</div><div>&nbsp; cpu &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: usr=0.01%, sys=0.01%, ctx=8218, majf=11, minf=295</div><div>&nbsp; IO depths &nbsp; &nbsp;: 1=0.2%, 2=0.4%, 4=0.8%, 8=1.6%, 16=96.9%, 32=0.0%, &gt;=64=0.0%</div><div>&nbsp; &nbsp; &nbsp;submit &nbsp; &nbsp;: 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, &gt;=64=0.0%</div><div>&nbsp; &nbsp; &nbsp;complete &nbsp;: 0=0.0%, 4=99.8%, 8=0.0%, 16=0.2%, 32=0.0%, 64=0.0%, &gt;=64=0.0%</div><div>&nbsp; &nbsp; &nbsp;issued &nbsp; &nbsp;: total=r=5424/w=2357/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0</div><div>&nbsp; &nbsp; &nbsp;latency &nbsp; : target=0, window=0, percentile=100.00%, depth=16</div><div><br></div><div>Run status group 0 (all jobs):</div><div>&nbsp; &nbsp;READ: io=43392KB, aggrb=715KB/s, minb=715KB/s, maxb=715KB/s, mint=60610msec, maxt=60610msec</div><div>&nbsp; WRITE: io=18856KB, aggrb=311KB/s, minb=311KB/s, maxb=311KB/s, mint=60610msec, maxt=60610msec</div></div><div><br></div><div><br></div><div>&nbsp;</div></div></div></div><br>_______________________________________________<br> Gluster-users mailing list<br> <a href="mailto:Gluster-users@gluster.org" target="_blank" data-mce-href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br> <a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank" data-mce-href="http://lists.gluster.org/mailman/listinfo/gluster-users">http://lists.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div><br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>http://lists.gluster.org/mailman/listinfo/gluster-users</blockquote><div><br></div></div></body></html>