<div dir="ltr"><div>+gluster-devel.<br></div>I would expect it to be high because context switch is switching CPU from one task to other and syscalls do that. All bricks do are syscalls at the end. That said, I am not sure how to measure what is normal. Adding gluster-devel.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, May 16, 2017 at 11:13 PM, mabi <span dir="ltr">&lt;<a href="mailto:mabi@protonmail.ch" target="_blank">mabi@protonmail.ch</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>Today I even saw up to 400k context switches for around 30 minutes on my two nodes replica... Does anyone else have so high context switches on their GlusterFS nodes?<br></div><div><br></div><div>I am wondering what is &quot;normal&quot; and if I should be worried...<br></div><div class="HOEnZb"><div class="h5"><div><br></div><div class="m_-5748316656869672783protonmail_signature_block m_-5748316656869672783protonmail_signature_block-empty"><div class="m_-5748316656869672783protonmail_signature_block-user m_-5748316656869672783protonmail_signature_block-empty"><div><br></div></div><div class="m_-5748316656869672783protonmail_signature_block-proton m_-5748316656869672783protonmail_signature_block-empty"><br></div></div><div><br></div><blockquote type="cite" class="m_-5748316656869672783protonmail_quote"><div>-------- Original Message --------<br></div><div>Subject: 120k context switches on GlsuterFS nodes<br></div><div>Local Time: May 11, 2017 9:18 PM<br></div><div>UTC Time: May 11, 2017 7:18 PM<br></div><div>From: <a href="mailto:mabi@protonmail.ch" target="_blank">mabi@protonmail.ch</a><br></div><div>To: Gluster Users &lt;<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.org</a>&gt;<br></div><div><br></div><div>Hi,<br></div><div><br></div><div>Today I noticed that for around 50 minutes my two GlusterFS 3.8.11 nodes had a very high amount of context switches, around 120k. Usually the average is more around 1k-2k. So I checked what was happening and there where just more users accessing (downloading) their files at the same time. These are directories with typical cloud files, which means files of any sizes ranging from a few kB to MB and a lot of course.<br></div><div><br></div><div>Now I never saw such a high number in context switches in my entire life so I wanted to ask if this is normal or to be expected? I do not find any signs of errors or warnings in any log files.<br></div><div><br></div><div>My volume is a replicated volume on two nodes with ZFS as filesystem behind and the volume is mounted using FUSE on the client (the cloud server). On that cloud server the glusterfs process was using quite a lot of system CPU but that server (VM) only has 2 vCPUs so maybe I should increase the number of vCPUs...<br></div><div><br></div><div>Any ideas or recommendations?<br></div><div><br></div><div class="m_-5748316656869672783protonmail_signature_block m_-5748316656869672783protonmail_signature_block-empty"><div class="m_-5748316656869672783protonmail_signature_block-user m_-5748316656869672783protonmail_signature_block-empty"><div><br></div></div><div class="m_-5748316656869672783protonmail_signature_block-proton m_-5748316656869672783protonmail_signature_block-empty"><br></div></div><div>Regards,<br></div><div>M.<br></div></blockquote><div><br></div></div></div><br>______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Pranith<br></div></div>
</div>