<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr">On Mon, Dec 24, 2018 at 6:05 PM Raghavendra Gowdappa &lt;<a href="mailto:rgowdapp@redhat.com">rgowdapp@redhat.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr">On Mon, Dec 24, 2018 at 3:40 PM Sankarshan Mukhopadhyay &lt;<a href="mailto:sankarshan.mukhopadhyay@gmail.com" target="_blank">sankarshan.mukhopadhyay@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">[pulling the conclusions up to enable better in-line]<br>
<br>
&gt; Conclusions:<br>
&gt;<br>
&gt; We should never have a volume with caching-related xlators disabled. The price we pay for it is too high. We need to make them work consistently and aggressively to avoid as many requests as we can.<br>
<br>
Are there current issues in terms of behavior which are known/observed<br>
when these are enabled?<br></blockquote><div><br></div><div>We did have issues with pgbench in past. But they&#39;ve have been fixed. Please refer to bz [1] for details. On 5.1, it runs successfully with all caching related xlators enabled. Having said that the only performance xlators which gave improved performance were open-behind and write-behind [2] (write-behind had some issues, which will be fixed by [3] and we&#39;ll have to measure performance again with fix to [3]). For some reason, read-side caching didn&#39;t improve transactions per second. </div></div></div></div></div></div></div></blockquote><div><br></div><div>One possible reason for read-caching in glusterfs didn&#39;t show increased performance can be, VFS already supports read-ahead (of 128KB) and page-cache. It could be that whatever performance boost that can be provided with caching is already leveraged at VFS page-cacheĀ  itself and hence making glusterfs caching redundant. I&#39;ll run some tests to gather evidence to (dis)prove this hypothesis.<br><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div>I am working on this problem currently. Note that these bugs measure transaction phase of pgbench, but what xavi measured in his mail is init phase. Nevertheless, evaluation of read caching (metadata/data) will still be relevant for init phase too.<br><br>[1] <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1512691" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1512691</a><br>[2] <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1629589#c4" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1629589#c4</a><br>[3] <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1648781" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1648781</a><br><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
&gt; We need to analyze client/server xlators deeper to see if we can avoid some delays. However optimizing something that is already at the microsecond level can be very hard.<br>
<br>
That is true - are there any significant gains which can be accrued by<br>
putting efforts here or, should this be a lower priority?<br></blockquote><div><br></div><div>The problem identified by xavi is also the one we (Manoj, Krutika, me and Milind) had encountered in the past [4]. The solution we used was to have multiple rpc connections between single brick and client. The solution indeed fixed the bottleneck. So, there is definitely work involved here - either to fix the single connection model or go with multiple connection model. Its preferred to improve single connection and resort to multiple connections only if bottlenecks in single connection are not fixable. Personally I think this is high priority along with having appropriate client side caching.<br><br>[4] <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1467614#c52" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1467614#c52</a><br><br> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
&gt; We need to determine what causes the fluctuations in brick side and avoid them.<br>
&gt; This scenario is very similar to a smallfile/metadata workload, so this is probably one important cause of its bad performance.<br>
<br>
What kind of instrumentation is required to enable the determination?<br>
<br>
On Fri, Dec 21, 2018 at 1:48 PM Xavi Hernandez &lt;<a href="mailto:xhernandez@redhat.com" target="_blank">xhernandez@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; Hi,<br>
&gt;<br>
&gt; I&#39;ve done some tracing of the latency that network layer introduces in gluster. I&#39;ve made the analysis as part of the pgbench performance issue (in particulat the initialization and scaling phase), so I decided to look at READV for this particular workload, but I think the results can be extrapolated to other operations that also have small latency (cached data from FS for example).<br>
&gt;<br>
&gt; Note that measuring latencies introduces some latency. It consists in a call to clock_get_time() for each probe point, so the real latency will be a bit lower, but still proportional to these numbers.<br>
&gt;<br>
<br>
[snip]<br>
_______________________________________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@gluster.org" target="_blank">Gluster-devel@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-devel" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-devel</a><br>
</blockquote></div></div></div></div></div></div>
</blockquote></div></div>