<div dir="ltr">Hi Pascal,<div><br></div><div>Sorry for complete delay in this one. And thanks for testing out in different scenarios.  Few questions before others can have a look and advice you.</div><div><br></div><div>1. What is the volume info output ?</div><div><br></div><div>2. Do you see any concerning logs in glusterfs log files?</div><div><br></div><div>3. Please use `gluster volume profile` while running the tests, and that gives a lot of information.</div><div><br></div><div>4. Considering you are using glusterfs-6.0, please take statedump of client process (on any node) before and after the test, so we can analyze the latency information of each translators.</div><div><br></div><div>With these information, I hope we will be in a better state to answer the questions.</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 10, 2019 at 3:45 PM Pascal Suter &lt;<a href="mailto:pascal.suter@dalco.ch">pascal.suter@dalco.ch</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">i continued my testing with 5 clients, all attached over 100Gbit/s <br>
omni-path via IP over IB. when i run the same iozone benchmark across <br>
all 5 clients where gluster is mounted using the glusterfs client, i get <br>
an aggretated write throughput of only about 400GB/s and an aggregated <br>
read throughput of 1.5GB/s. Each node was writing a single 200Gb file in <br>
16MB chunks and the files where distributed across all three bricks on <br>
the server.<br>
<br>
the connection was established over Omnipath for sure, as there is no <br>
other link between the nodes and server.<br>
<br>
i have no clue what i&#39;m doing wrong here. i can&#39;t believe that this is a <br>
normal performance people would expect to see from gluster. i guess <br>
nobody would be using it if it was this slow.<br>
<br>
again, when written dreictly to the xfs filesystem on the bricks, i get <br>
over 6GB/s read and write throughput using the same benchmark.<br>
<br>
any advise is appreciated<br>
<br>
cheers<br>
<br>
Pascal<br>
<br>
On 04.04.19 12:03, Pascal Suter wrote:<br>
&gt; I just noticed i left the most important parameters out :)<br>
&gt;<br>
&gt; here&#39;s the write command with filesize and recordsize in it as well :)<br>
&gt;<br>
&gt; ./iozone -i 0 -t 1 -F /mnt/gluster/storage/thread1 -+n -c -C -e -I -w <br>
&gt; -+S 0 -s 200G -r 16384k<br>
&gt;<br>
&gt; also i ran the benchmark without direct_io which resulted in an even <br>
&gt; worse performance.<br>
&gt;<br>
&gt; i also tried to mount the gluster volume via nfs-ganesha which further <br>
&gt; reduced throughput down to about 450MB/s<br>
&gt;<br>
&gt; if i run the iozone benchmark with 3 threads writing to all three <br>
&gt; bricks directly (from the xfs filesystem) i get throughputs of around <br>
&gt; 6GB/s .. if I run the same benchmark through gluster mounted locally <br>
&gt; using the fuse client and with enough threads so that each brick gets <br>
&gt; at least one file written to it, i end up seing throughputs around <br>
&gt; 1.5GB/s .. that&#39;s a 4x decrease in performance. at it actually is the <br>
&gt; same if i run the benchmark with less threads and files only get <br>
&gt; written to two out of three bricks.<br>
&gt;<br>
&gt; cpu load on the server is around 25% by the way, nicely distributed <br>
&gt; across all available cores.<br>
&gt;<br>
&gt; i can&#39;t believe that gluster should really be so slow and everybody is <br>
&gt; just happily using it. any hints on what i&#39;m doing wrong are very <br>
&gt; welcome.<br>
&gt;<br>
&gt; i&#39;m using gluster 6.0 by the way.<br>
&gt;<br>
&gt; regards<br>
&gt;<br>
&gt; Pascal<br>
&gt;<br>
&gt; On 03.04.19 12:28, Pascal Suter wrote:<br>
&gt;&gt; Hi all<br>
&gt;&gt;<br>
&gt;&gt; I am currently testing gluster on a single server. I have three <br>
&gt;&gt; bricks, each a hardware RAID6 volume with thin provisioned LVM that <br>
&gt;&gt; was aligned to the RAID and then formatted with xfs.<br>
&gt;&gt;<br>
&gt;&gt; i&#39;ve created a distributed volume so that entire files get <br>
&gt;&gt; distributed across my three bricks.<br>
&gt;&gt;<br>
&gt;&gt; first I ran a iozone benchmark across each brick testing the read and <br>
&gt;&gt; write perofrmance of a single large file per brick<br>
&gt;&gt;<br>
&gt;&gt; i then mounted my gluster volume locally and ran another iozone run <br>
&gt;&gt; with the same parameters writing a single file. the file went to <br>
&gt;&gt; brick 1 which, when used driectly, would write with 2.3GB/s and read <br>
&gt;&gt; with 1.5GB/s. however, through gluster i got only 800MB/s read and <br>
&gt;&gt; 750MB/s write throughput<br>
&gt;&gt;<br>
&gt;&gt; another run with two processes each writing a file, where one file <br>
&gt;&gt; went to the first brick and the other file to the second brick (which <br>
&gt;&gt; by itself when directly accessed wrote at 2.8GB/s and read at <br>
&gt;&gt; 2.7GB/s) resulted in 1.2GB/s of aggregated write and also aggregated <br>
&gt;&gt; read throughput.<br>
&gt;&gt;<br>
&gt;&gt; Is this a normal performance i can expect out of a glusterfs or is it <br>
&gt;&gt; worth tuning in order to really get closer to the actual brick <br>
&gt;&gt; filesystem performance?<br>
&gt;&gt;<br>
&gt;&gt; here are the iozone commands i use for writing and reading.. note <br>
&gt;&gt; that i am using directIO in order to make sure i don&#39;t get fooled by <br>
&gt;&gt; cache :)<br>
&gt;&gt;<br>
&gt;&gt; ./iozone -i 0 -t 1 -F /mnt/brick${b}/thread1 -+n -c -C -e -I -w -+S 0 <br>
&gt;&gt; -s $filesize -r $recordsize &gt; iozone-brick${b}-write.txt<br>
&gt;&gt;<br>
&gt;&gt; ./iozone -i 1 -t 1 -F /mnt/brick${b}/thread1 -+n -c -C -e -I -w -+S 0 <br>
&gt;&gt; -s $filesize -r $recordsize &gt; iozone-brick${b}-read.txt<br>
&gt;&gt;<br>
&gt;&gt; cheers<br>
&gt;&gt;<br>
&gt;&gt; Pascal<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
<br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div>Amar Tumballi (amarts)<br></div></div></div></div></div>