<div dir="ltr">You&#39;re not counting wrong. We won&#39;t necessarily transfer all of these files to one volume though. It was more an example of the distribution of file sizes.<div>But as you say healing might be a problem, but then again. This is archive storage. We&#39;re after the highest possible capacity, not necessarily performance.</div><div>If you take a look at the profile output you&#39;ll see that MKDIR, CREATE and XATTROP are the operations with the highest latency and I guess that is due to the number of bricks? ( 180 )</div><div>But I thought that number wouldnt be too high to get at least a little bit higher troughput?</div><div><br></div><div>ingard</div><div class="gmail_extra"><br><div class="gmail_quote">2017-05-08 15:19 GMT+02:00 Serkan Çoban <span dir="ltr">&lt;<a href="mailto:cobanserkan@gmail.com" target="_blank">cobanserkan@gmail.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">There are 300M files right I am not counting wrong?<br>
With that file profile I would never use EC in first place.<br>
Maybe you can pack the files into tar archives or similar before<br>
migrating to gluster?<br>
It will take ages to heal a drive with that file count...<br>
<div><div class="h5"><br>
On Mon, May 8, 2017 at 3:59 PM, Ingard Mevåg &lt;<a href="mailto:ingard@jotta.no">ingard@jotta.no</a>&gt; wrote:<br>
&gt; With attachments :)<br>
&gt;<br>
&gt; 2017-05-08 14:57 GMT+02:00 Ingard Mevåg &lt;<a href="mailto:ingard@jotta.no">ingard@jotta.no</a>&gt;:<br>
&gt;&gt;<br>
&gt;&gt; Hi<br>
&gt;&gt;<br>
&gt;&gt; We&#39;ve got 3 servers with 60 drives each setup with an EC volume running on<br>
&gt;&gt; gluster 3.10.0<br>
&gt;&gt; The servers are connected via 10gigE.<br>
&gt;&gt;<br>
&gt;&gt; We&#39;ve done the changes recommended here :<br>
&gt;&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1349953#c17" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/<wbr>show_bug.cgi?id=1349953#c17</a> and we&#39;re able to<br>
&gt;&gt; max out the network with the iozone tests referenced in the same ticket.<br>
&gt;&gt;<br>
&gt;&gt; However for small files we are getting 3-5 MB/s with the smallfile_cli.py<br>
&gt;&gt; tool. For instance:<br>
&gt;&gt; python smallfile_cli.py --operation create --threads 32 --file-size 100<br>
&gt;&gt; --files 1000 --top /tmp/dfs-archive-001/<br>
&gt;&gt; .<br>
&gt;&gt; .<br>
&gt;&gt; total threads = 32<br>
&gt;&gt; total files = 31294<br>
&gt;&gt; total data =     2.984 GB<br>
&gt;&gt;  97.79% of requested files processed, minimum is  90.00<br>
&gt;&gt; 785.542908 sec elapsed time<br>
&gt;&gt; 39.837416 files/sec<br>
&gt;&gt; 39.837416 IOPS<br>
&gt;&gt; 3.890373 MB/sec<br>
&gt;&gt; .<br>
&gt;&gt;<br>
&gt;&gt; We&#39;re going to use these servers for archive purposes, so the files will<br>
&gt;&gt; be moved there and accessed very little. After noticing our migration tool<br>
&gt;&gt; performing very badly we did some analyses on the data actually being moved<br>
&gt;&gt; :<br>
&gt;&gt;<br>
&gt;&gt; Bucket 31808791 (16.27 GB) :: 0 bytes - 1.00 KB<br>
&gt;&gt; Bucket 49448258 (122.89 GB) :: 1.00 KB - 5.00 KB<br>
&gt;&gt; Bucket 13382242 (96.92 GB) :: 5.00 KB - 10.00 KB<br>
&gt;&gt; Bucket 13557684 (195.15 GB) :: 10.00 KB - 20.00 KB<br>
&gt;&gt; Bucket 22735245 (764.96 GB) :: 20.00 KB - 50.00 KB<br>
&gt;&gt; Bucket 15101878 (1041.56 GB) :: 50.00 KB - 100.00 KB<br>
&gt;&gt; Bucket 10734103 (1558.35 GB) :: 100.00 KB - 200.00 KB<br>
&gt;&gt; Bucket 17695285 (5773.74 GB) :: 200.00 KB - 500.00 KB<br>
&gt;&gt; Bucket 13632394 (10039.92 GB) :: 500.00 KB - 1.00 MB<br>
&gt;&gt; Bucket 21815815 (32641.81 GB) :: 1.00 MB - 2.00 MB<br>
&gt;&gt; Bucket 36940815 (117683.33 GB) :: 2.00 MB - 5.00 MB<br>
&gt;&gt; Bucket 13580667 (91899.10 GB) :: 5.00 MB - 10.00 MB<br>
&gt;&gt; Bucket 10945768 (232316.33 GB) :: 10.00 MB - 50.00 MB<br>
&gt;&gt; Bucket 1723848 (542581.89 GB) :: 50.00 MB - 9223372036.85 GB<br>
&gt;&gt;<br>
&gt;&gt; So it turns out we&#39;ve got a very large number of very small files being<br>
&gt;&gt; written to this volume.<br>
&gt;&gt; I&#39;ve attached the volume config and 2 profiling runs so if someone wants<br>
&gt;&gt; to take a look and maybe give us some hints in terms of what volume settings<br>
&gt;&gt; will be best for writing a lot of small files that would be much<br>
&gt;&gt; appreciated.<br>
&gt;&gt;<br>
&gt;&gt; kind regards<br>
&gt;&gt; ingard<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
</div></div>&gt; ______________________________<wbr>_________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
</blockquote></div><br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div dir="ltr"><br></div></div></div>
</div></div>