<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Feb 20, 2017 at 8:25 AM, Shyam <span dir="ltr">&lt;<a href="mailto:srangana@redhat.com" target="_blank">srangana@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
RC1 tagging is *tentatively* scheduled for 21st Feb, 2017<br>
<br>
The intention is that RC1 becomes the release, hence we would like to chase down all blocker bugs [1] and get them fixed before RC1 is tagged.<br>
<br>
This mail requests information on the various bugs and to understand if it is possible to get them fixed done by the 21st.<br>
<br>
Bugs pending for RC1 tagging:<br>
  1) Bug 1415226 - packaging: python/python2(/python3) cleanup<br>
    - Status: Review awaiting verification and a backport<br>
    - master bug: <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1414902" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/sh<wbr>ow_bug.cgi?id=1414902</a><br>
      - Review: <a href="https://review.gluster.org/#/c/16649/" rel="noreferrer" target="_blank">https://review.gluster.org/#/c<wbr>/16649/</a><br>
    - *Niels*, I was not able verify this over the weekend, there is a *chance* I can do this tomorrow. Do you have alternate plans to get this verified?<br>
<br>
  2) Bug 1421590 - Bricks take up new ports upon volume restart after add-brick op with brick mux enabled<br>
    - Status: *Atin/Samikshan/Jeff*, any update on this?<br>
      - Can we document this as a known issue? What would be the way to get volume to use the older ports (a glusterd restart?)?<br></blockquote><div><br></div><div>I think we can live with it for sometime given with brick-multiplexing on, the number of ports consumption is very low and there is no serious harm in having few stale ports on volume restart. Having said that Samikshan is working on this issue and we expect to fix it in master some time soon.<br> <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
  3) Bug 1421956 - Disperse: Fallback to pre-compiled code execution when dynamic code generation fails<br>
    - Status: Awaiting review closure<br>
    - *Pranith/Ashish*, request one of you to close the review on this one, so that Xavi can backport this to 3.10<br>
    - master bug: <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1421955" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/sh<wbr>ow_bug.cgi?id=1421955</a><br>
      - Review: <a href="https://review.gluster.org/16614" rel="noreferrer" target="_blank">https://review.gluster.org/166<wbr>14</a><br>
<br>
  4) Bug 1422769 - brick process crashes when glusterd is restarted<br>
    - Status: As per comment #6, the test case that Jeff developed for this is not reporting a crash<br>
    - *Atin*, should we defer this form the blocker list for 3.10? Can you take a look at the test case as well?<br>
      - Tet case: <a href="https://review.gluster.org/#/c/16651/" rel="noreferrer" target="_blank">https://review.gluster.org/#/c<wbr>/16651/</a><br>
<br>
  5) Bug 1422781 - Transport endpoint not connected error seen on client when glusterd is restarted<br>
    - Status: Repro not clean across setups, still debugging the problem<br>
    - *Atin*, we may need someone from your team to take this up and narrow this down to a fix or determine if this is really a blocker<br></blockquote><div><br></div><div>I&#39;d consider the test case as blocker. The surprising thing here is I was able to hit it at the first go (on release-3.10 HEAD at that time) when the bug was filed but yesterday I retried it several times but had no luck. Not sure if any patch went in between fixed it or I was *extremely* lucky to hit the race at first attempt. I&quot;d check with Karthick (reporter of the BZ) to see if he can reproduce it or not and then feedback.<br><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
  6) Bug 1423385 - Crash in index xlator because of race in inode_ctx_set and inode_ref<br>
    - Status: Review posted for master, awaiting review closure<br>
      - *Du/Pranith*, please close the review of the above<br>
    - Review: <a href="https://review.gluster.org/16622" rel="noreferrer" target="_blank">https://review.gluster.org/166<wbr>22</a><br>
    - master bug: <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1423373" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/sh<wbr>ow_bug.cgi?id=1423373</a><br>
    - Related note: I was facing the same crash on the client stack as mentioned in bug #1423065, cherry picking this fix and rerunning my tests does not reproduce the crash (as was suggested by Ravi and Poornima).<br>
<br>
Thanks,<br>
Shyam<br>
<br>
[1] 3.10 tracker bug: <a href="https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-3.10.0" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/sh<wbr>ow_bug.cgi?id=glusterfs-3.10.0</a><br>
<br>
[2] Dynamic tracker list: <a href="https://bugzilla.redhat.com/showdependencytree.cgi?id=glusterfs-3.10.0&amp;maxdepth=1&amp;hide_resolved=1" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/sh<wbr>owdependencytree.cgi?id=gluste<wbr>rfs-3.10.0&amp;maxdepth=1&amp;hide_<wbr>resolved=1</a><br>
</blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><br></div><div>~ Atin (atinm)<br></div></div></div></div>
</div></div>