<div dir="ltr"><div><br></div><div>As gluster cli was failing to create a volume which has tons of brick request in one command.<br>I added this<a href="https://review.gluster.org/#/c/18271/5/tests/bugs/cli/bug-1490853.t" rel="noreferrer" target="_blank"> https://review.gluster.org/#/<wbr>c/18271/5/tests/bugs/cli/bug-<wbr>1490853.t</a>  test to ensure that <br>gluster is able to parse large request.<br></div><div>As per the bug &quot;<a href="https://bugzilla.redhat.com/show_bug.cgi?id=1490853">https://bugzilla.redhat.com/show_bug.cgi?id=1490853</a>&quot;, create was failing, but I added volume start too <br>in the test case whichideally is not required.<br><br>I have addressed the same and updated the patch,<br></div><div><br><br></div><div>Thanks<br></div><div>Gaurav<br></div><div><br><br><br> <br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Oct 6, 2017 at 2:31 PM, Michael Scherer <span dir="ltr">&lt;<a href="mailto:mscherer@redhat.com" target="_blank">mscherer@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
so on the last 2 days, I have been contacted by people because some<br>
builders were failling. Upon investigation ( <a href="https://bugzilla.redhat.co" rel="noreferrer" target="_blank">https://bugzilla.redhat.co</a><br>
m/show_bug.cgi?id=1498390 ), the main issue seems to be the following:<br>
<br>
Each build failed had a set of glusterd process (around 300) that where<br>
started by jenkins, to test regression for this change:<br>
<a href="https://review.gluster.org/#/c/18271/" rel="noreferrer" target="_blank">https://review.gluster.org/#/<wbr>c/18271/</a><br>
<br>
(found due to environment variable of the process)<br>
<br>
But upon closer inspection of the patch, it doesn&#39;t seems buggy, so my<br>
suspicion are on the test case, who is also quite simple (and likely<br>
bug free), but who also seems to start a ton of of volume (around 1000<br>
) if I am not wrong, and this do seems to result into a large number of<br>
process being created.<br>
<br>
See <a href="https://review.gluster.org/#/c/18271/5/tests/bugs/cli/bug-1490853.t" rel="noreferrer" target="_blank">https://review.gluster.org/#/<wbr>c/18271/5/tests/bugs/cli/bug-<wbr>1490853.t</a><br>
<br>
<br>
Could it be that the test case do uncover a bug in the test suite, or a<br>
bug in gluster ?<br>
<br>
Looking at the test suite, I see that the cleanup function is<br>
conveniently ignoring a ton of error:<br>
<a href="https://github.com/gluster/glusterfs/blob/master/tests/include.rc#L465" rel="noreferrer" target="_blank">https://github.com/gluster/<wbr>glusterfs/blob/master/tests/<wbr>include.rc#L465</a><br>
which do not help to see what is going wrong.<br>
<br>
I also do not see out of memory errors, but munin graph seems to stop<br>
right at the same time, so maybe that&#39;s just a ressource issue.<br>
<br>
So my questions are:<br>
- is gluster supposed to scale gracefully with 1000 volumes on 1 single<br>
 node ?<br>
- how much ressources should we plan for that ? (right now, we have 2G<br>
VM, we can&#39;t increase much without reinstalling the whole set of<br>
servers)<br>
<br>
If you see any builders not working, please ping me on irc.<br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
Michael Scherer<br>
Sysadmin, Community Infrastructure and Platform, OSAS<br>
<br>
</font></span><br>______________________________<wbr>_________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@gluster.org">Gluster-devel@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-devel" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-devel</a><br></blockquote></div><br></div>