<html><body><div style="font-family: Arial, Helvetica, sans-serif; font-size: 12pt; color: #000000"><div>Thanks. good to know.</div><div><br></div><div data-marker="__SIG_PRE__">Met vriendelijke groet, <br><br>Mike Hulsman<br><br>Proxy Managed Services B.V. | www.proxy.nl | Enterprise IT-Infra, Open Source and Cloud Technology<br>Delftweg 128 3043 NB Rotterdam The Netherlands | +31 10 307 0965</div><br><hr id="zwchr" data-marker="__DIVIDER__"><div data-marker="__HEADERS__"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><b>From: </b>"Atin Mukherjee" &lt;amukherj@redhat.com&gt;<br><b>To: </b>"Mike Hulsman" &lt;mike.hulsman@proxy.nl&gt;<br><b>Cc: </b>"Jo Goossens" &lt;jo.goossens@hosted-power.com&gt;, "gluster-users" &lt;gluster-users@gluster.org&gt;<br><b>Sent: </b>Wednesday, November 8, 2017 2:12:02 PM<br><b>Subject: </b>Re: [Gluster-users] BUG: After stop and start wrong port is advertised<br></blockquote></div><div data-marker="__QUOTED_TEXT__"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><div dir="ltr">We've a fix in release-3.10 branch which is merged and should be available in the next 3.10 update.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Nov 8, 2017 at 4:58 PM, Mike Hulsman <span dir="ltr">&lt;<a href="mailto:mike.hulsman@proxy.nl" target="_blank">mike.hulsman@proxy.nl</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div style="font-family:Arial,Helvetica,sans-serif;font-size:12pt;color:#000000"><div><div style="font-family:Arial,Helvetica,sans-serif;font-size:12pt;color:#000000"><div>Hi,</div><br><div>This bug is hitting me hard on two different clients.</div><div>In RHGS 3.3 and on glusterfs 3.10.2 on Centos 7.4</div><div>in once case I had 59 differences in a total of 203 bricks.</div><br><div>I wrote a quick and dirty script to check all ports against the brick file and the running process.</div><div>#!/bin/bash<br><br>Host=`uname -n| awk -F"." '{print $1}'`<br>GlusterVol=`ps -eaf | grep /usr/sbin/glusterfsd| grep -v grep | awk '{print $NF}'| awk -F"-server" '{print $1}'|sort | uniq`<br>Port=`ps -eaf | grep /usr/sbin/glusterfsd| grep -v grep | awk '{print $NF}'| awk -F"." '{print $NF}'`<br><br>for Volumes in ${GlusterVol};<br>do<br> cd /var/lib/glusterd/vols/${Volumes}/bricks<br> Bricks=`ls ${Host}*`<br> for Brick in ${Bricks};<br> do<br> Onfile=`grep ^listen-port "${Brick}"`<br> BrickDir=`echo "${Brick}"| awk -F":" '{print $2}'| cut -c2-`<br> Daemon=`ps -eaf | grep "\${BrickDir}.pid" |grep -v grep | awk '{print $NF}' | awk -F"." '{print $2}'`<br> #echo Onfile: ${Onfile}<br> #echo Daemon: ${Daemon}<br> if [ "${Onfile}" = "${Daemon}" ]; then<br> echo "OK For ${Brick}"<br> else<br> echo "!!! NOT OK For ${Brick}"<br> fi<br> done<br>done</div><br><br><div>Met vriendelijke groet, <br><br>Mike Hulsman<br><br>Proxy Managed Services B.V. | <a href="http://www.proxy.nl" target="_blank">www.proxy.nl</a> | Enterprise IT-Infra, Open Source and Cloud Technology<br><a href="https://maps.google.com/?q=Delftweg+128+3043+NB+Rotterdam+The+Netherlands&amp;entry=gmail&amp;source=g" target="_blank">Delftweg 128 3043 NB Rotterdam The Netherlands</a> | +31 10 307 0965</div><br><hr id="m_-4268435176035671773zwchr"><div><blockquote style="border-left:2px solid #1010ff;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt"><b>From: </b>"Jo Goossens" &lt;<a href="mailto:jo.goossens@hosted-power.com" target="_blank">jo.goossens@hosted-power.com</a>&gt;<br><b>To: </b>"Atin Mukherjee" &lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;<br><b>Cc: </b><a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.org</a><br><b>Sent: </b>Friday, October 27, 2017 11:06:35 PM<span class=""><br><b>Subject: </b>Re: [Gluster-users] BUG: After stop and start wrong port is advertised<br></span></blockquote></div><div><blockquote style="border-left:2px solid #1010ff;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt">RE: [Gluster-users] BUG: After stop and start wrong port is advertised<div><div class="h5"><p>Hello Atin,</p><p>&nbsp;</p><p>&nbsp;</p><p>I just read it and very happy you found the issue. We really hope this will be fixed in the next 3.10.7 version!</p><p>&nbsp;</p><p>&nbsp;</p><p>PS: Wow nice all that c code and those "goto out" statements (not always considered clean but the best way often I think). Can remember the days I wrote kernel drivers myself in c :)</p><p>&nbsp;</p><p>&nbsp;</p><p>Regards</p><p>Jo Goossens</p><p>&nbsp;</p><p>&nbsp;</p><p><br>&nbsp;</p><blockquote style="border-left:2px solid #325fba;padding-left:5px;margin-left:5px">-----Original message-----<br><strong>From:</strong> Atin Mukherjee &lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;<br><strong>Sent:</strong> Fri 27-10-2017 21:01<br><strong>Subject:</strong> Re: [Gluster-users] BUG: After stop and start wrong port is advertised<br><strong>To:</strong> Jo Goossens &lt;<a href="mailto:jo.goossens@hosted-power.com" target="_blank">jo.goossens@hosted-power.com</a>&gt;; <br><strong>CC:</strong> <a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.org</a>; <br><div dir="ltr"><div>We (finally) figured out the root cause, Jo!<br>&nbsp;</div>Patch <a href="https://review.gluster.org/#/c/18579" title="This external link will open in a new window" target="_blank">https://review.gluster.org/#/c/18579</a> posted upstream for review.</div><div><br><div>On Thu, Sep 21, 2017 at 2:08 PM, Jo Goossens <span dir="ltr">&lt;<a href="mailto:jo.goossens@hosted-power.com" title="This external link will open in a new window" target="_blank">jo.goossens@hosted-power.com</a>&gt;</span> wrote:<br><blockquote style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><p>Hi,</p><p>&nbsp;</p><p>&nbsp;</p><p>We use glusterfs 3.10.5 on Debian 9.</p><p>&nbsp;</p><p>When we stop or restart the service, e.g.:&nbsp;service glusterfs-server restart</p><p>&nbsp;</p><p>We see that the wrong port get's advertised afterwards. For example:</p><p>&nbsp;</p><p>Before restart:</p><p>&nbsp;</p><div>Status of volume: public</div><div>Gluster process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; TCP Port &nbsp;RDMA Port &nbsp;Online &nbsp;Pid</div><div>------------------------------------------------------------------------------</div><div>Brick 192.168.140.41:/gluster/public &nbsp; &nbsp; &nbsp; &nbsp;49153 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 6364</div><div>Brick 192.168.140.42:/gluster/public &nbsp; &nbsp; &nbsp; &nbsp;49152 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 1483</div><div>Brick 192.168.140.43:/gluster/public &nbsp; &nbsp; &nbsp; &nbsp;49152 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 5913</div><div>Self-heal Daemon on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 5932</div><div>Self-heal Daemon on 192.168.140.42 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 13084</div><div>Self-heal Daemon on 192.168.140.41 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 15499</div><div>&nbsp;</div><div>Task Status of Volume public</div><div>------------------------------------------------------------------------------</div><div>There are no active volume tasks</div><div>&nbsp;</div><div>&nbsp;</div><div>After restart of the service on one of the nodes (192.168.140.43) the port seems to have changed (but it didn't):</div><div>&nbsp;</div><div><div>root@app3:/var/log/glusterfs# &nbsp;gluster volume status</div><div>Status of volume: public</div><div>Gluster process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; TCP Port &nbsp;RDMA Port &nbsp;Online &nbsp;Pid</div><div>------------------------------------------------------------------------------</div><div>Brick 192.168.140.41:/gluster/public &nbsp; &nbsp; &nbsp; &nbsp;49153 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 6364</div><div>Brick 192.168.140.42:/gluster/public &nbsp; &nbsp; &nbsp; &nbsp;49152 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 1483</div><div>Brick 192.168.140.43:/gluster/public &nbsp; &nbsp; &nbsp; &nbsp;49154 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 5913</div><div>Self-heal Daemon on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 4628</div><div>Self-heal Daemon on 192.168.140.42 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 3077</div><div>Self-heal Daemon on 192.168.140.41 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 28777</div><div>&nbsp;</div><div>Task Status of Volume public</div><div>------------------------------------------------------------------------------</div><div>There are no active volume tasks</div><div>&nbsp;</div></div><div>&nbsp;</div><div>However the active process is STILL the same pid AND still listening on the old port</div><div>&nbsp;</div><div><div>root@192.168.140.43:/var/log/glusterfs# netstat -tapn | grep gluster</div><div>tcp &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0 <a href="http://0.0.0.0:49152" title="This external link will open in a new window" target="_blank">0.0.0.0:49152</a> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0.0.0.0:* &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; LISTEN &nbsp; &nbsp; &nbsp;5913/glusterfsd</div><div>&nbsp;</div></div><div>&nbsp;</div><div>The other nodes logs fill up with errors because they can't reach the daemon anymore. They try to reach it on the "new" port instead of the old one:</div><div>&nbsp;</div><div><div>[2017-09-21 08:33:25.225006] E [socket.c:2327:socket_connect_finish] 0-public-client-2: connection to <a href="http://192.168.140.43:49154" title="This external link will open in a new window" target="_blank">192.168.140.43:49154</a> failed (Connection refused); disconnecting socket</div><div>[2017-09-21 08:33:29.226633] I [rpc-clnt.c:2000:rpc_clnt_reconfig] 0-public-client-2: changing port to 49154 (from 0)</div><div>[2017-09-21 08:33:29.227490] E [socket.c:2327:socket_connect_finish] 0-public-client-2: connection to <a href="http://192.168.140.43:49154" title="This external link will open in a new window" target="_blank">192.168.140.43:49154</a> failed (Connection refused); disconnecting socket</div><div>[2017-09-21 08:33:33.225849] I [rpc-clnt.c:2000:rpc_clnt_reconfig] 0-public-client-2: changing port to 49154 (from 0)</div><div>[2017-09-21 08:33:33.236395] E [socket.c:2327:socket_connect_finish] 0-public-client-2: connection to <a href="http://192.168.140.43:49154" title="This external link will open in a new window" target="_blank">192.168.140.43:49154</a> failed (Connection refused); disconnecting socket</div><div>[2017-09-21 08:33:37.225095] I [rpc-clnt.c:2000:rpc_clnt_reconfig] 0-public-client-2: changing port to 49154 (from 0)</div><div>[2017-09-21 08:33:37.225628] E [socket.c:2327:socket_connect_finish] 0-public-client-2: connection to <a href="http://192.168.140.43:49154" title="This external link will open in a new window" target="_blank">192.168.140.43:49154</a> failed (Connection refused); disconnecting socket</div><div>[2017-09-21 08:33:41.225805] I [rpc-clnt.c:2000:rpc_clnt_reconfig] 0-public-client-2: changing port to 49154 (from 0)</div><div>[2017-09-21 08:33:41.226440] E [socket.c:2327:socket_connect_finish] 0-public-client-2: connection to <a href="http://192.168.140.43:49154" title="This external link will open in a new window" target="_blank">192.168.140.43:49154</a> failed (Connection refused); disconnecting socket</div><div>&nbsp;</div></div><div>So they now try 49154 instead of the old 49152&nbsp;</div><div>&nbsp;</div><div>Is this also by design? We had a lot of issues because of this recently. We don't understand why it starts advertising a completely wrong port after stop/start.</div><div>&nbsp;</div><div>&nbsp;</div><div>&nbsp;</div><div>&nbsp;</div><p>&nbsp;</p><p>Regards</p><p>Jo Goossens</p><p>&nbsp;</p></div><br>_______________________________________________<br> Gluster-users mailing list<br> <a href="mailto:Gluster-users@gluster.org" title="This external link will open in a new window" target="_blank">Gluster-users@gluster.org</a><br> <a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" title="This external link will open in a new window" target="_blank">http://lists.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div></div></blockquote><br>_______________________________________________<br>Gluster-users mailing list<br><a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br><a href="http://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://lists.gluster.org/mailman/listinfo/gluster-users</a></div></div></blockquote></div></div><br></div></div></div></blockquote></div></div><br></blockquote></div></div></body></html>