<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=Windows-1252">
<style type="text/css" style="display:none;"> P {margin-top:0;margin-bottom:0;} </style>
</head>
<body dir="ltr">
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
Silly question to all though - <br>
</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
<br>
</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
Akin to the problems that Linus Tech Tips experienced with ZFS and a multi-disk NVMe SSD array -- is GlusterFS written so that it takes how NVMe SSDS operate in mind?<br>
<br>
(i.e. that the code itself might have wait and/or wait for synchronous commands to finish first before executing the next command?)<br>
<br>
cf. <a href="https://forum.level1techs.com/t/fixing-slow-nvme-raid-performance-on-epyc/151909" id="LPlnk">
https://forum.level1techs.com/t/fixing-slow-nvme-raid-performance-on-epyc/151909</a><br>
<div class="_Entity _EType_OWALinkPreview _EId_OWALinkPreview _EReadonly_1">
<div id="LPBorder_GTaHR0cHM6Ly9mb3J1bS5sZXZlbDF0ZWNocy5jb20vdC9maXhpbmctc2xvdy1udm1lLXJhaWQtcGVyZm9ybWFuY2Utb24tZXB5Yy8xNTE5MDk." class="LPBorder883881" style="width: 100%; margin-top: 16px; margin-bottom: 16px; position: relative; max-width: 800px; min-width: 424px;">
<table id="LPContainer883881" role="presentation" style="padding: 12px 36px 12px 12px; width: 100%; border-width: 1px; border-style: solid; border-color: rgb(200, 200, 200); border-radius: 2px;">
<tbody>
<tr style="border-spacing: 0px;" valign="top">
<td>
<div id="LPImageContainer883881" style="position: relative; margin-right: 12px; height: 175.962px; overflow: hidden; width: 240px;">
<a target="_blank" id="LPImageAnchor883881" href="https://forum.level1techs.com/t/fixing-slow-nvme-raid-performance-on-epyc/151909"><img id="LPThumbnailImageId883881" alt="" style="display: block;" width="240" height="175" src="https://forum.level1techs.com/uploads/default/original/4X/a/6/f/a6f72ef3c2adffa5161619926007f716a4459c6e.png"></a></div>
</td>
<td style="width: 100%;">
<div id="LPTitle883881" style="font-size: 21px; font-weight: 300; margin-right: 8px; font-family: &quot;wf_segoe-ui_light&quot;, &quot;Segoe UI Light&quot;, &quot;Segoe WP Light&quot;, &quot;Segoe UI&quot;, &quot;Segoe WP&quot;, Tahoma, Arial, sans-serif; margin-bottom: 12px;">
<a target="_blank" id="LPUrlAnchor883881" href="https://forum.level1techs.com/t/fixing-slow-nvme-raid-performance-on-epyc/151909" style="text-decoration: none; color:var(--themePrimary);">Fixing Slow NVMe Raid Performance on Epyc</a></div>
<div id="LPDescription883881" style="font-size: 14px; max-height: 100px; color: rgb(102, 102, 102); font-family: &quot;wf_segoe-ui_normal&quot;, &quot;Segoe UI&quot;, &quot;Segoe WP&quot;, Tahoma, Arial, sans-serif; margin-bottom: 12px; margin-right: 8px; overflow: hidden;">
Linus had this weird problem where, when we built his array, the NVMe performance wasn’t that great. It was very slow – trash, basically. This was a 24-drive NVMe array. These error messages arent too serious, normally, but are a sign of a missed interrupt.
 There is some traffic I’m aware of on the LKML that there are (maybe) some latent bugs around the NVMe driver, so as a fallback it’ll poll the device if something takes unusually long. This many polling events, though, means the perf is ...</div>
<div id="LPMetadata883881" style="font-size: 14px; font-weight: 400; color: rgb(166, 166, 166); font-family: &quot;wf_segoe-ui_normal&quot;, &quot;Segoe UI&quot;, &quot;Segoe WP&quot;, Tahoma, Arial, sans-serif;">
forum.level1techs.com</div>
</td>
</tr>
</tbody>
</table>
</div>
</div>
<br>
I'm not a programmer nor a developer, so I don't really understand programming software, but I am just wondering that if this might be a similar issue with GlusterFS as it is with ZFS with NVMe storage devices because the underlying code/system was written
 with mechanically rotating disks in mind and/or, at best, SATA 3.0 6 Gbps SSDs in mind, as opposed to NVMe SSDs.</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
<br>
</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
Could this be a possible reason/cause, <i>ad simile</i>?<br>
<br>
</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
<br>
</div>
<div>
<div id="appendonsend"></div>
<div style="font-family:Calibri,Helvetica,sans-serif; font-size:12pt; color:rgb(0,0,0)">
<br>
</div>
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="divRplyFwdMsg" dir="ltr"><font style="font-size:11pt" face="Calibri, sans-serif" color="#000000"><b>From:</b> gluster-users-bounces@gluster.org &lt;gluster-users-bounces@gluster.org&gt; on behalf of Dmitry Antipov &lt;dmantipov@yandex.ru&gt;<br>
<b>Sent:</b> November 26, 2020 8:36 AM<br>
<b>To:</b> gluster-users@gluster.org List &lt;gluster-users@gluster.org&gt;<br>
<b>Subject:</b> Re: [Gluster-users] Poor performance on a server-class system vs. desktop</font>
<div>&nbsp;</div>
</div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt">
<div class="PlainText">To whom it may be interesting, this paper says that ~80K IOPS (4K random writes) is real:<br>
<br>
<a href="https://archive.fosdem.org/2018/schedule/event/optimizing_sds/attachments/slides/2300/export/events/attachments/optimizing_sds/slides/2300/GlusterOnNVMe_FOSDEM2018.pdf">https://archive.fosdem.org/2018/schedule/event/optimizing_sds/attachments/slides/2300/export/events/attachments/optimizing_sds/slides/2300/GlusterOnNVMe_FOSDEM2018.pdf</a><br>
<br>
On the same-class server hardware, following their tuning recommendations, etc. I just run 8 times slower.<br>
So it seems that RH insiders are the only people knows how to setup real GlusterFS installation properly :(.<br>
<br>
Dmitry<br>
________<br>
<br>
<br>
<br>
Community Meeting Calendar:<br>
<br>
Schedule -<br>
Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>
Bridge: <a href="https://meet.google.com/cpu-eiue-hvk">https://meet.google.com/cpu-eiue-hvk</a><br>
Gluster-users mailing list<br>
Gluster-users@gluster.org<br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
</div>
</span></font></div>
</div>
</body>
</html>