<div dir="ltr"><div>Hi Hu Bert,</div><div><br></div><div>Do you have a distributed-replicate volume and you followed an online upgrade procedure? If so, then that is the reason that the ports are different on only 1 server as you mentioned you did a reboot on it.</div><div>Secondly, the glusterfs mount issue is already fixed (check patch <a href="https://github.com/gluster/glusterfs/pull/3211">#3211</a>) and will be available in the next release.</div><br clear="all"><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">--<br><span style="color:rgb(34,34,34)">Thanks and Regards,</span><div><font color="#222222"><b>NiKHIL LADHA</b></font><br></div></div></div></div><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Mar 1, 2022 at 3:10 PM Hu Bert <<a href="mailto:revirii@googlemail.com">revirii@googlemail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hey,<br>
<br>
ok, i think i found the reason for the port issue:<br>
<br>
<a href="https://docs.gluster.org/en/latest/release-notes/10.0/" rel="noreferrer" target="_blank">https://docs.gluster.org/en/latest/release-notes/10.0/</a><br>
<a href="https://github.com/gluster/glusterfs/issues/786" rel="noreferrer" target="_blank">https://github.com/gluster/glusterfs/issues/786</a><br>
<br>
Should've look closer... mea culpa. But, quite interesting, that<br>
happened only on one server, i upgraded 6 servers in total.<br>
<br>
So only the issue with the glusterfs mount and backup-volfile-servers remains.<br>
<br>
<br>
Thx,<br>
Hubert<br>
<br>
Am Di., 1. März 2022 um 06:19 Uhr schrieb Hu Bert <<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>>:<br>
><br>
> Good morning,<br>
><br>
> just did an upgrade of 3 gluster volumes and x clients from 9.4 to<br>
> 10.1. In principle the upgrade went fine, just 2 smaller issues<br>
> appeared.<br>
><br>
> 1) on one of the servers the ports are screwed up.<br>
><br>
> gluster volume status<br>
> Status of volume: workdata<br>
> Gluster process                             TCP Port  RDMA Port  Online  Pid<br>
> ------------------------------------------------------------------------------<br>
> Brick glusterpub1:/gluster/md3/workdata     49152     0          Y       1452<br>
> Brick glusterpub2:/gluster/md3/workdata     49152     0          Y       1839<br>
> Brick glusterpub3:/gluster/md3/workdata     54105     0          Y       1974<br>
> Brick glusterpub1:/gluster/md4/workdata     49153     0          Y       1459<br>
> Brick glusterpub2:/gluster/md4/workdata     49153     0          Y       1849<br>
> Brick glusterpub3:/gluster/md4/workdata     58177     0          Y       1997<br>
> Brick glusterpub1:/gluster/md5/workdata     49154     0          Y       1468<br>
> Brick glusterpub2:/gluster/md5/workdata     49154     0          Y       1857<br>
> Brick glusterpub3:/gluster/md5/workdata     59071     0          Y       2003<br>
> Brick glusterpub1:/gluster/md6/workdata     49155     0          Y       1481<br>
> Brick glusterpub2:/gluster/md6/workdata     49155     0          Y       1868<br>
> Brick glusterpub3:/gluster/md6/workdata     53309     0          Y       2008<br>
> Brick glusterpub1:/gluster/md7/workdata     49156     0          Y       1490<br>
> Brick glusterpub2:/gluster/md7/workdata     49156     0          Y       1878<br>
> Brick glusterpub3:/gluster/md7/workdata     54310     0          Y       2027<br>
> Self-heal Daemon on localhost               N/A       N/A        Y       2108<br>
> Self-heal Daemon on glusterpub1             N/A       N/A        Y       1210749<br>
> Self-heal Daemon on glusterpub2             N/A       N/A        Y       950871<br>
><br>
> Task Status of Volume workdata<br>
> ------------------------------------------------------------------------------<br>
> There are no active volume tasks<br>
><br>
> glusterpub3 has different ports. I know, this is no problem, the<br>
> volume is good, but even after a reboot the ports stay like this.<br>
><br>
> glustershd.log:<br>
> [2022-03-01 04:58:13.993349 +0000] I<br>
> [rpc-clnt.c:1969:rpc_clnt_reconfig] 0-workdata-client-0: changing port<br>
> to 49152 (from 0)<br>
> [2022-03-01 04:58:13.993410 +0000] I [socket.c:834:__socket_shutdown]<br>
> 0-workdata-client-0: intentional socket shutdown(13)<br>
> [............]<br>
> [2022-03-01 04:58:14.008111 +0000] I<br>
> [rpc-clnt.c:1969:rpc_clnt_reconfig] 0-workdata-client-1: changing port<br>
> to 49152 (from 0)<br>
> [2022-03-01 04:58:14.008148 +0000] I [socket.c:834:__socket_shutdown]<br>
> 0-workdata-client-1: intentional socket shutdown(14)<br>
> [............]<br>
> [2022-03-01 04:58:14.011416 +0000] I<br>
> [rpc-clnt.c:1969:rpc_clnt_reconfig] 0-workdata-client-2: changing port<br>
> to 54105 (from 0)<br>
> [2022-03-01 04:58:14.011469 +0000] I [socket.c:834:__socket_shutdown]<br>
> 0-workdata-client-2: intentional socket shutdown(13)<br>
><br>
> same for the other 4 bricks. Probably some more related message,<br>
> unsure which ones to c+p. And some error messages like these (appear<br>
> on all servers):<br>
><br>
> [2022-03-01 04:58:14.012523 +0000] E<br>
> [rpc-clnt.c:331:saved_frames_unwind] (--><br>
> /lib/x86_64-linux-gnu/libglusterfs.so.0(_gf_log_callingfn+0x195)[0x7f4cec48c2a5]<br>
> (--> /lib/x86_64-linux-gnu/libgfrpc.so.0(+0x729c)[0x7f4cec42529c] (--><br>
> /lib/<br>
> x86_64-linux-gnu/libgfrpc.so.0(rpc_clnt_connection_cleanup+0x10f)[0x7f4cec42d20f]<br>
> (--> /lib/x86_64-linux-gnu/libgfrpc.so.0(+0x10118)[0x7f4cec42e118]<br>
> (--> /lib/x86_64-linux-gnu/libgfrpc.so.0(rpc_transport_notify+0x26)[0x7f4cec429646]<br>
> )))<br>
> )) 0-workdata-client-5: forced unwinding frame type(GF-DUMP)<br>
> op(DUMP(1)) called at 2022-03-01 04:58:14.011943 +0000 (xid=0x5)<br>
><br>
> very strange.<br>
><br>
> 2) when mounting on the clients (after upgrade):<br>
><br>
> /sbin/mount.glusterfs: 90: [: glusterpub2 glusterpub3 SyntaxOK:<br>
> unexpected operator<br>
> /sbin/mount.glusterfs: 366: [: SyntaxOK: unexpected operator<br>
><br>
> Syntax ok, but unexpected operator? Has the mount syntax changed?<br>
><br>
> glusterpub1:/workdata /data/repository/shared/public glusterfs<br>
> defaults,_netdev,attribute-timeout=0,entry-timeout=0,backup-volfile-servers=glusterpub2:glusterpub3<br>
> 0 0<br>
><br>
><br>
> thx,<br>
> Hubert<br>
________<br>
<br>
<br>
<br>
Community Meeting Calendar:<br>
<br>
Schedule -<br>
Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>
Bridge: <a href="https://meet.google.com/cpu-eiue-hvk" rel="noreferrer" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div>