<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=koi8-r">
<style type="text/css" style="display:none;"> P {margin-top:0;margin-bottom:0;} </style>
</head>
<body dir="ltr">
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
Dmitry:<br>
<br>
Is there a way to check and see if the GlusterFS write requests is being routed through the network interface?<br>
<br>
I am asking this because of your bricks/host definition as you showed below.<br>
<br>
Thanks.</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
<br>
</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
Sincerely,</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
Ewen<br>
</div>
<div>
<div id="appendonsend"></div>
<div style="font-family:Calibri,Helvetica,sans-serif; font-size:12pt; color:rgb(0,0,0)">
<br>
</div>
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="divRplyFwdMsg" dir="ltr"><font style="font-size:11pt" face="Calibri, sans-serif" color="#000000"><b>From:</b> gluster-users-bounces@gluster.org &lt;gluster-users-bounces@gluster.org&gt; on behalf of Strahil Nikolov &lt;hunter86_bg@yahoo.com&gt;<br>
<b>Sent:</b> November 25, 2020 12:42 PM<br>
<b>To:</b> Dmitry Antipov &lt;dmantipov@yandex.ru&gt;<br>
<b>Cc:</b> gluster-users &lt;gluster-users@gluster.org&gt;<br>
<b>Subject:</b> Re: [Gluster-users] Poor performance on a server-class system vs. desktop</font>
<div>&nbsp;</div>
</div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt">
<div class="PlainText">Having the same performance on 2 very fast disks indicate that you are<br>
hitting a limit.<br>
You can start with this article: <br>
<a href="https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/small_file_performance_enhancements">https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/small_file_performance_enhancements</a><br>
<br>
Most probably increasing the performance.io-thread-count could help.<br>
<br>
<br>
Best Regards,<br>
Strahil Nikolov<br>
<br>
<br>
В 19:08 +0300 на 25.11.2020 (ср), Dmitry Antipov написа:<br>
&gt; I'm trying to investigate the poor I/O performance results<br>
&gt; observed on a server-class system vs. the desktop-class one.<br>
&gt; <br>
&gt; The second one is 8-core notebook with NVME disk. According to<br>
&gt; <br>
&gt; fio --name test --filename=XXX --bs=4k --rw=randwrite --<br>
&gt; ioengine=libaio --direct=1 \<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; --iodepth=128 --numjobs=1 --runtime=60 --time_based=1<br>
&gt; <br>
&gt; this disk is able to perform 4K random writes at ~100K IOPS. When I<br>
&gt; create the<br>
&gt; glusterfs volume using the same disk as backing store:<br>
&gt; <br>
&gt; Volume Name: test1<br>
&gt; Type: Replicate<br>
&gt; Volume ID: 87bad2a9-7a4a-43fc-94d2-de72965b63d6<br>
&gt; Status: Started<br>
&gt; Snapshot Count: 0<br>
&gt; Number of Bricks: 1 x 3 = 3<br>
&gt; Transport-type: tcp<br>
&gt; Bricks:<br>
&gt; Brick1: 192.168.1.112:/glusterfs/test1-000<br>
&gt; Brick2: 192.168.1.112:/glusterfs/test1-001<br>
&gt; Brick3: 192.168.1.112:/glusterfs/test1-002<br>
&gt; Options Reconfigured:<br>
&gt; storage.fips-mode-rchecksum: on<br>
&gt; transport.address-family: inet<br>
&gt; nfs.disable: on<br>
&gt; performance.client-io-threads: off<br>
&gt; <br>
&gt; and run:<br>
&gt; <br>
&gt; [global]<br>
&gt; name=ref-write<br>
&gt; filename=testfile<br>
&gt; ioengine=gfapi_async<br>
&gt; volume=test1<br>
&gt; brick=localhost<br>
&gt; create_on_open=1<br>
&gt; rw=randwrite<br>
&gt; direct=1<br>
&gt; numjobs=1<br>
&gt; time_based=1<br>
&gt; runtime=60<br>
&gt; <br>
&gt; [test-4-kbytes]<br>
&gt; bs=4k<br>
&gt; size=1G<br>
&gt; iodepth=128<br>
&gt; <br>
&gt; I'm seeing ~10K IOPS. So adding an extra layer (glusterfs :-) between<br>
&gt; an I/O client<br>
&gt; (fio in this case) and NVME disk introduces ~10x overhead. Maybe<br>
&gt; worse than expected,<br>
&gt; but the things goes even worse when I'm switching to the server.<br>
&gt; <br>
&gt; The server is 32-core machine with NVME disk capable to serve the<br>
&gt; same I/O pattern<br>
&gt; at ~200K IOPS. I've expected something similar to linear scalability,<br>
&gt; i.e. ~20K<br>
&gt; IOPS then running the same fio workload on a gluster volume. But I<br>
&gt; surprisingly<br>
&gt; got something very close to the same ~10K IOPS as seen on the<br>
&gt; desktop-class machine.<br>
&gt; So, here is ~20x overhead vs. ~10x one on the desktop.<br>
&gt; <br>
&gt; The OSes are different (Fedora Core 33 on a notebook and relatively<br>
&gt; old Debian 9 on<br>
&gt; server), but both systems runs the fairly recent 5.9.x kernels<br>
&gt; (without massive tricky<br>
&gt; tuning via sysctl or similar methods) and glusterfs 8.2, using XFS as<br>
&gt; the filesystem<br>
&gt; under the bricks.<br>
&gt; <br>
&gt; I would greatly appreciate any ideas on debugging this.<br>
&gt; <br>
&gt; Dmitry<br>
&gt; ________<br>
&gt; <br>
&gt; <br>
&gt; <br>
&gt; Community Meeting Calendar:<br>
&gt; <br>
&gt; Schedule -<br>
&gt; Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>
&gt; Bridge: <a href="https://meet.google.com/cpu-eiue-hvk">https://meet.google.com/cpu-eiue-hvk</a><br>
&gt; Gluster-users mailing list<br>
&gt; Gluster-users@gluster.org<br>
&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
________<br>
<br>
<br>
<br>
Community Meeting Calendar:<br>
<br>
Schedule -<br>
Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>
Bridge: <a href="https://meet.google.com/cpu-eiue-hvk">https://meet.google.com/cpu-eiue-hvk</a><br>
Gluster-users mailing list<br>
Gluster-users@gluster.org<br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
</div>
</span></font></div>
</div>
</body>
</html>