<div>I have been using GlusterFS now for over a year in production and what made me write this mail initially is that it is the first time I see such high peeks in terms of context switches/interrupts but else to reply to your question everything seems to work just fine so far.<br></div><div><br></div><div>What has changed from my side is that I was using 3.7 until end of April and now I am on the latest 3.8.11 version of GlusterFS. So as you mention it could be something related to 3.8. <br></div><div class="protonmail_signature_block protonmail_signature_block-empty"><div class="protonmail_signature_block-user protonmail_signature_block-empty"><div><br></div></div><div class="protonmail_signature_block-proton protonmail_signature_block-empty"><br></div></div><div><br></div><blockquote class="protonmail_quote" type="cite"><div>-------- Original Message --------<br></div><div>Subject: Re: [Gluster-users] 120k context switches on GlsuterFS nodes<br></div><div>Local Time: May 17, 2017 7:49 PM<br></div><div>UTC Time: May 17, 2017 5:49 PM<br></div><div>From: jlawrence@squaretrade.com<br></div><div>To: mabi &lt;mabi@protonmail.ch&gt;, Gluster Users &lt;gluster-users@gluster.org&gt;<br></div><div><br></div><div><br></div><div> &gt; On May 17, 2017, at 10:20 AM, mabi &lt;mabi@protonmail.ch&gt; wrote:<br></div><div> &gt; <br></div><div> &gt; I don't know exactly what kind of context-switches it was but what I know is that it is the "cs" number under "system" when you run vmstat.<br></div><div> &gt; <br></div><div> &gt; Also I use the percona linux monitoring template for cacti (https://www.percona.com/doc/percona-monitoring-plugins/LATEST/cacti/linux-templates.html) which monitors context switches too. If that's of any use interrupts where also quite high during that time with peaks up to 50k interrupts.<br></div><div> <br></div><div> You can't read or write data from the disk or send data over the network from userspace without making system calls. System calls mean context switches. So you should expect to see the CS number scale with load - the whole point of Gluster is to read and write and send data over the network.<br></div><div> <br></div><div> As far as them being "excessive", I don't know how to think about that without at least a comparison , or better, some evidence that something is doing more work than it "should". (Or best, line numbers where unnecessary work is being performed.)<br></div><div> <br></div><div> Is there something other than a surprising number to make you think it isn't behaving well? Did the number jump after an upgrade? Do you have other systems doing roughly the same thing with other software that performs better? Keep in mind that, say, a vanilla NFS or SMB server doesn't have the inter-gluster-node overhead, and how much of that traffic there is depends on how you've configured Gluster.<br></div><div> <br></div><div> -j<br></div></blockquote><div><br></div>