<div><br><div class="gmail_quote"><div dir="auto">On Fri, 6 Oct 2017 at 19:05, Michael Scherer &lt;<a href="mailto:mscherer@redhat.com">mscherer@redhat.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Le vendredi 06 octobre 2017 à 16:53 +0530, Gaurav Yadav a écrit :<br>
&gt; As gluster cli was failing to create a volume which has tons of brick<br>
&gt; request in one command.<br>
&gt; I added this <a href="https://review.gluster.org/#/c/18271/5/tests/bugs/cli/bu" rel="noreferrer" target="_blank">https://review.gluster.org/#/c/18271/5/tests/bugs/cli/bu</a><br>
&gt; g-<br>
&gt; 1490853.t  test to ensure that<br>
&gt; gluster is able to parse large request.<br>
&gt; As per the bug &quot;<a href="https://bugzilla.redhat.com/show_bug.cgi?id=1490853" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1490853</a>&quot;,<br>
&gt; create was failing, but I added volume start too<br>
&gt; in the test case whichideally is not required.<br>
&gt;<br>
&gt; I have addressed the same and updated the patch,<br>
<br>
Thanks for the fast fix \o/<br>
<br>
but so, the underlying iroblem is still here, this did fail in a way<br>
that our test suite didn&#39;t recover. And we should have a more solid<br>
test suite, cause errors can happen (and are normal, we test<br>
experimental code).</blockquote><div dir="auto"><br></div><div dir="auto">The previous version of the test was trying to create 1000 bricks on a single volume (not 1000 volumes) and start the volume. Technically there was nothing wrong in the test but its just that spawning 1000 brick processes with out brick multiplexing being turned on would cause memory pressure on the node and probably that had caused the abnormality. Ideally the code change didnt need to test the volume start path as the change was only done in the volume create code path which the latest version of the .t does now. So now that we’re not spawning any brick processes what other things we need to look in? FWIW, the latest regression run has failed again.</div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
<br>
<br>
--<br>
Michael Scherer<br>
Sysadmin, Community Infrastructure and Platform, OSAS<br>
<br>
_______________________________________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@gluster.org" target="_blank">Gluster-devel@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-devel" rel="noreferrer" target="_blank">http://lists.gluster.org/mailman/listinfo/gluster-devel</a></blockquote></div></div><div dir="ltr">-- <br></div><div class="gmail_signature" data-smartmail="gmail_signature">- Atin (atinm)</div>