<div dir="ltr">Niels, could you look at this failure? It seems to have started post-merge of this patch: <a href="https://review.gluster.org/#/c/17779/">https://review.gluster.org/#/c/17779/</a><br><br><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jul 24, 2017 at 1:04 PM, Atin Mukherjee <span dir="ltr">&lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Bump.<br><br></div>Failures are constant. May I request someone from replicate team to take a look at it?<br></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jul 21, 2017 at 7:24 AM, Atin Mukherjee <span dir="ltr">&lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div dir="auto">Netbsd runs don&#39;t go through. add-brick-self-heal.t seems to be generating core.</div><div><div class="m_-47268805677651130h5"><br><div class="gmail_quote"><div>---------- Forwarded message ---------<br>From:  &lt;<a href="mailto:jenkins@build.gluster.org" target="_blank">jenkins@build.gluster.org</a>&gt;<br>Date: Fri, 21 Jul 2017 at 06:20<br>Subject: [Gluster-Maintainers] Build failed in Jenkins: netbsd-periodic #98<br>To:  &lt;<a href="mailto:maintainers@gluster.org" target="_blank">maintainers@gluster.org</a>&gt;,  &lt;<a href="mailto:jeff@pl.atyp.us" target="_blank">jeff@pl.atyp.us</a>&gt;,  &lt;<a href="mailto:srangana@redhat.com" target="_blank">srangana@redhat.com</a>&gt;,  &lt;<a href="mailto:vbellur@redhat.com" target="_blank">vbellur@redhat.com</a>&gt;<br></div><br><br>See &lt;<a href="https://build.gluster.org/job/netbsd-periodic/98/display/redirect?page=changes" rel="noreferrer" target="_blank">https://build.gluster.org/job<wbr>/netbsd-periodic/98/display/<wbr>redirect?page=changes</a>&gt;<br>
<br>
Changes:<br>
<br>
[Jeff Darcy] glusterd: fix brick start race<br>
<br>
[Vijay Bellur] MAINTAINERS: Changes for Maintainers 2.0<br>
<br>
------------------------------<wbr>------------<br>
[...truncated 241.43 KB...]<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
./tests/basic/afr/../../includ<wbr>e.rc: line 314: 22640 Segmentation fault      (core dumped) gluster --mode=script --wignore volume set patchy self-heal-daemon on<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]<br>
rm: /build/install/var/run/gluster<wbr>: is a directory<br>
./tests/basic/afr/../../includ<wbr>e.rc: line 314: 27660 Segmentation fault      (core dumped) gluster --mode=script --wignore volume heal patchy<br>
ls: /d/backends/patchy2: No such file or directory<br>
ls: /d/backends/patchy0: No such file or directory<br>
ls: ls: /d/backends/patchy2: No such file or directory<br>
/d/backends/patchy1: No such file or directory<br>
diff: /d/backends/patchy0/file1.txt: No such file or directory<br>
diff: /d/backends/patchy2/file1.txt: No such file or directory<br>
./tests/basic/afr/add-brick-se<wbr>lf-heal.t ..<br>
1..34<br>
not ok 1 , LINENUM:6<br>
FAILED COMMAND: glusterd<br>
not ok 2 , LINENUM:7<br>
FAILED COMMAND: pidof glusterd<br>
not ok 3 , LINENUM:8<br>
FAILED COMMAND: gluster --mode=script --wignore volume create patchy replica 2 nbslave72.cloud.gluster.org:/d<wbr>/backends/patchy0 nbslave72.cloud.gluster.org:/d<wbr>/backends/patchy1<br>
not ok 4 , LINENUM:9<br>
FAILED COMMAND: gluster --mode=script --wignore volume start patchy<br>
not ok 5 , LINENUM:10<br>
FAILED COMMAND: gluster --mode=script --wignore volume set patchy cluster.data-self-heal off<br>
not ok 6 , LINENUM:11<br>
FAILED COMMAND: gluster --mode=script --wignore volume set patchy cluster.metadata-self-heal off<br>
not ok 7 , LINENUM:12<br>
FAILED COMMAND: gluster --mode=script --wignore volume set patchy cluster.entry-self-heal off<br>
not ok 8 , LINENUM:14<br>
FAILED COMMAND: gluster --mode=script --wignore volume set patchy self-heal-daemon off<br>
not ok 9 , LINENUM:15<br>
FAILED COMMAND: _GFS --attribute-timeout=0 --entry-timeout=0 --volfile-id=patchy --volfile-server=<a href="http://nbslave72.cloud.gluster.org" rel="noreferrer" target="_blank">nbslave72.clo<wbr>ud.gluster.org</a> /mnt/glusterfs/0<br>
not ok 10 , LINENUM:24<br>
FAILED COMMAND: setfattr -n user.test -v qwerty /mnt/glusterfs/0/file5.txt<br>
not ok 11 , LINENUM:27<br>
FAILED COMMAND: gluster --mode=script --wignore volume add-brick patchy replica 3 nbslave72.cloud.gluster.org:/d<wbr>/backends/patchy2<br>
not ok 12 , LINENUM:30<br>
FAILED COMMAND: setfattr -n trusted.afr.patchy-client-0 -v 0x000000000000000000000001 /d/backends/patchy2/<br>
not ok 13 , LINENUM:31<br>
FAILED COMMAND: setfattr -n trusted.afr.patchy-client-1 -v 0x000000000000000000000001 /d/backends/patchy2/<br>
not ok 14 Got &quot;&quot; instead of &quot;000000000000000100000001&quot;, LINENUM:34<br>
FAILED COMMAND: 000000000000000100000001 get_hex_xattr trusted.afr.patchy-client-2 /d/backends/patchy0<br>
not ok 15 Got &quot;&quot; instead of &quot;000000000000000100000001&quot;, LINENUM:35<br>
FAILED COMMAND: 000000000000000100000001 get_hex_xattr trusted.afr.patchy-client-2 /d/backends/patchy1<br>
not ok 16 Got &quot;&quot; instead of &quot;000000000000000000000001&quot;, LINENUM:36<br>
FAILED COMMAND: 000000000000000000000001 get_hex_xattr trusted.afr.dirty /d/backends/patchy2<br>
not ok 17 Got &quot;&quot; instead of &quot;1&quot;, LINENUM:38<br>
FAILED COMMAND: 1 afr_child_up_status patchy 0<br>
not ok 18 Got &quot;&quot; instead of &quot;1&quot;, LINENUM:39<br>
FAILED COMMAND: 1 afr_child_up_status patchy 1<br>
not ok 19 Got &quot;&quot; instead of &quot;1&quot;, LINENUM:40<br>
FAILED COMMAND: 1 afr_child_up_status patchy 2<br>
not ok 20 , LINENUM:42<br>
FAILED COMMAND: gluster --mode=script --wignore volume set patchy self-heal-daemon on<br>
not ok 21 Got &quot;&quot; instead of &quot;Y&quot;, LINENUM:43<br>
FAILED COMMAND: Y glustershd_up_status<br>
not ok 22 Got &quot;&quot; instead of &quot;1&quot;, LINENUM:44<br>
FAILED COMMAND: 1 afr_child_up_status_in_shd patchy 0<br>
not ok 23 Got &quot;&quot; instead of &quot;1&quot;, LINENUM:45<br>
FAILED COMMAND: 1 afr_child_up_status_in_shd patchy 1<br>
not ok 24 Got &quot;&quot; instead of &quot;1&quot;, LINENUM:46<br>
FAILED COMMAND: 1 afr_child_up_status_in_shd patchy 2<br>
not ok 25 , LINENUM:47<br>
FAILED COMMAND: gluster --mode=script --wignore volume heal patchy<br>
not ok 26 Got &quot;&quot; instead of &quot;^0$&quot;, LINENUM:50<br>
FAILED COMMAND: ^0$ get_pending_heal_count patchy<br>
ok 27, LINENUM:53<br>
ok 28, LINENUM:54<br>
not ok 29 , LINENUM:57<br>
FAILED COMMAND: diff /d/backends/patchy0/file1.txt /d/backends/patchy2/file1.txt<br>
not ok 30 Got &quot;&quot; instead of &quot;qwerty&quot;, LINENUM:60<br>
FAILED COMMAND: qwerty get_text_xattr user.test /d/backends/patchy2/file5.txt<br>
not ok 31 Got &quot;&quot; instead of &quot;qwerty&quot;, LINENUM:61<br>
FAILED COMMAND: qwerty get_text_xattr user.test /d/backends/patchy0/file5.txt<br>
not ok 32 Got &quot;&quot; instead of &quot;000000000000000000000000&quot;, LINENUM:63<br>
FAILED COMMAND: 000000000000000000000000 get_hex_xattr trusted.afr.patchy-client-2 /d/backends/patchy0<br>
not ok 33 Got &quot;&quot; instead of &quot;000000000000000000000000&quot;, LINENUM:64<br>
FAILED COMMAND: 000000000000000000000000 get_hex_xattr trusted.afr.patchy-client-2 /d/backends/patchy1<br>
not ok 34 Got &quot;&quot; instead of &quot;000000000000000000000000&quot;, LINENUM:65<br>
FAILED COMMAND: 000000000000000000000000 get_hex_xattr trusted.afr.dirty /d/backends/patchy2<br>
Failed 32/34 subtests<br>
<br>
Test Summary Report<br>
-------------------<br>
./tests/basic/afr/add-brick-se<wbr>lf-heal.t (Wstat: 0 Tests: 34 Failed: 32)<br>
  Failed tests:  1-26, 29-34<br>
Files=1, Tests=34, 266 wallclock secs ( 0.07 usr  0.03 sys +  4.05 cusr  7.91 csys = 12.06 CPU)<br>
Result: FAIL<br>
./tests/basic/afr/add-brick-se<wbr>lf-heal.t: 234 new core files<br>
End of test ./tests/basic/afr/add-brick-se<wbr>lf-heal.t<br>
==============================<wbr>==============================<wbr>====================<br>
<br>
<br>
Run complete<br>
==============================<wbr>==============================<wbr>====================<br>
Number of tests found:                             2<br>
Number of tests selected for run based on pattern: 2<br>
Number of tests skipped as they were marked bad:   0<br>
Number of tests skipped because of known_issues:   0<br>
Number of tests that were run:                     2<br>
<br>
1 test(s) failed<br>
./tests/basic/afr/add-brick-se<wbr>lf-heal.t<br>
<br>
1 test(s) generated core<br>
./tests/basic/afr/add-brick-se<wbr>lf-heal.t<br>
<br>
Tests ordered by time taken, slowest to fastest:<br>
==============================<wbr>==============================<wbr>====================<br>
./tests/basic/afr/add-brick-se<wbr>lf-heal.t  -  266 second<br>
./tests/basic/0symbol-check.t  -  0 second<br>
<br>
Result is 1<br>
<br>
tar: Removing leading / from absolute path names in the archive<br>
Cores and build archived in <a href="http://nbslave72.cloud.gluster.org/archives/archived_builds/build-install-20170721003808.tgz" rel="noreferrer" target="_blank">http://nbslave72.cloud.gluster<wbr>.org/archives/archived_builds/<wbr>build-install-20170721003808.<wbr>tgz</a><br>
Open core using the following command to get a proper stack...<br>
Example: From root of extracted tarball<br>
       gdb -ex &#39;set sysroot ./&#39;   -ex &#39;core-file ./build/install/cores/xxx.core<wbr>&#39;   &lt;target, say ./build/install/sbin/glusterd&gt;<br>
NB: this requires a gdb built with &#39;NetBSD ELF&#39; osabi support,  which is available natively on a NetBSD-7.0/i386 system<br>
tar: Removing leading / from absolute path names in the archive<br>
Logs archived in <a href="http://nbslave72.cloud.gluster.org/archives/logs/glusterfs-logs-20170721003808.tgz" rel="noreferrer" target="_blank">http://nbslave72.cloud.gluster<wbr>.org/archives/logs/glusterfs-<wbr>logs-20170721003808.tgz</a><br>
Build step &#39;Execute shell&#39; marked build as failure<br>
______________________________<wbr>_________________<br>
maintainers mailing list<br>
<a href="mailto:maintainers@gluster.org" target="_blank">maintainers@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/maintainers" rel="noreferrer" target="_blank">http://lists.gluster.org/mailm<wbr>an/listinfo/maintainers</a><br>
</div></div></div></div><span class="m_-47268805677651130HOEnZb"><font color="#888888"><div dir="ltr">-- <br></div><div data-smartmail="gmail_signature">- Atin (atinm)</div></font></span></blockquote></div><br></div>
</div></div><br>______________________________<wbr>_________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@gluster.org">Gluster-devel@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-devel" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-devel</a><br></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">nigelb<br></div></div>
</div>