<div dir="ltr">Hello folks,<br><br>We may have been a little too quick to blame Meltdown on the Jenkins failures yesterday. In any case, we&#39;ve open a ticket with our provider and they&#39;re looking into the failures. I&#39;ve looked at the last 90 failures to get a comprehensive number on the failures.<br><br>Total Jobs: 90<br>Failures: 62<br>Failure Percentage: 68.89%<br><br>I&#39;ve analyzed the individual failures categorized them as well.<br><br><a href="http://slave28.cloud.gluster.org">slave28.cloud.gluster.org</a> failure: 9<br>Geo-replication failures: 12<br>Fops-during-migration.t: 4<br>Compilation failures: 3<br>durability-off.t failures: 7<br><br>These alone total to 35 failures. The slave28 failures were due to the machine running out of disk space. We had a very large binary archived from an experimental branch build failure. I&#39;ve cleared that core out and this is now fixed. The geo-replication failures were due to geo-rep tests depending on root&#39;s .bashrc having the PATH variable modified. This was not a standard setup and therefore didn&#39;t work on many machines. This has now been fixed. The other 3 were transient failures either limited to a particular review or a temporary bustage on master. The majority of the recent failures had more to do with infra than to do with tests.<br><br>I&#39;m therefore cautiously moving with the assumption that the impact of KPTI patch is minimal so far.<br clear="all"><br>-- <br><div class="gmail_signature"><div dir="ltr">nigelb<br></div></div>
</div>