<div dir="ltr">Is it possible to attach logfiles of problematic client and bricks?<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Mar 1, 2018 at 3:00 AM, Ryan Lee <span dir="ltr">&lt;<a href="mailto:ryanlee@zepheira.com" target="_blank">ryanlee@zepheira.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">We&#39;ve been on the Gluster 3.7 series for several years with things pretty stable.  Given that it&#39;s reached EOL, yesterday I upgraded to 3.13.2.  Every Gluster mount and server was disabled then brought back up after the upgrade, changing the op-version to 31302 and then trying it all out.<br>
<br>
It went poorly.  Every sizable read and write (100&#39;s MB) lead to &#39;Transport endpoint not connected&#39; errors on the command line and immediate unavailability of the mount.  After unsuccessfully trying to search for similar problems with solutions, I ended up downgrading to 3.12.6 and changing the op-version to 31202.  That brought us back to usability with the majority of those operations succeeding enough to consider it online, but there are still occasional mount disconnects that we never saw with 3.7 - about 6 in the past 18 hours.  It seems these disconnects would never come back, either, unless manually re-mounted.  Manually remounting reconnects immediately.  They only disconnect the affected client, though some simultaneous disconnects have occurred due to simultaneous activity.  The lower-level log info seems to indicate a socket problem, potentially broken on the client side based on timing (but the timing is narrow, and I won&#39;t claim the clocks are that well synchronized across all our servers).  The client and one server claim a socket polling error with no data available, and the other server claims a writev error.  This seems to lead the client to the &#39;all subvolumes are down&#39; state, even though all other clients are still connected.  Has anybody run into this?  Did I miss anything moving so many versions ahead?<br>
<br>
I&#39;ve included the output of volume info and some excerpts from the logs.   We have two servers running glusterd and two replica volumes with a brick on each server.  Both experience disconnects; there are about 10 clients for each, with one using both.  We use SSL over internal IPv4. Names in all caps were replaced, as were IP addresses.<br>
<br>
Let me know if there&#39;s anything else I can provide.<br>
<br>
% gluster v info VOL<br>
Volume Name: VOL<br>
Type: Replicate<br>
Volume ID: 3207155f-02c6-447a-96c4-589791<wbr>7345e0<br>
Status: Started<br>
Snapshot Count: 0<br>
Number of Bricks: 1 x 2 = 2<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: SERVER1:/glusterfs/VOL-brick1/<wbr>data<br>
Brick2: SERVER2:/glusterfs/VOL-brick2/<wbr>data<br>
Options Reconfigured:<br>
config.transport: tcp<br>
features.selinux: off<br>
transport.address-family: inet<br>
nfs.disable: on<br>
client.ssl: on<br>
performance.readdir-ahead: on<br>
auth.ssl-allow: [NAMES, including CLIENT]<br>
server.ssl: on<br>
ssl.certificate-depth: 3<br>
<br>
Log excerpts (there was nothing related in glusterd.log):<br>
<br>
CLIENT:/var/log/glusterfs/mnt-<wbr>VOL.log<br>
[2018-02-28 19:35:58.378334] E [socket.c:2648:socket_poller] 0-VOL-client-1: socket_poller SERVER2:49153 failed (No data available)<br>
[2018-02-28 19:35:58.477154] E [MSGID: 108006] [afr-common.c:5164:__afr_handl<wbr>e_child_down_event] 0-VOL-replicate-0: All subvolumes are down. Going offline until atleast one of them comes back up.<br>
[2018-02-28 19:35:58.486146] E [MSGID: 101046] [dht-common.c:1501:dht_lookup_<wbr>dir_cbk] 0-VOL-dht: dict is null &lt;67 times&gt;<br>
&lt;lots of saved_frames_unwind messages&gt;<br>
[2018-02-28 19:38:06.428607] E [socket.c:2648:socket_poller] 0-VOL-client-1: socket_poller SERVER2:24007 failed (No data available)<br>
[2018-02-28 19:40:12.548650] E [socket.c:2648:socket_poller] 0-VOL-client-1: socket_poller SERVER2:24007 failed (No data available)<br>
<br>
&lt;manual umount / mount&gt;<br>
<br>
<br>
SERVER2:/var/log/glusterfs/bri<wbr>cks/VOL-brick2.log<br>
[2018-02-28 19:35:58.379953] E [socket.c:2632:socket_poller] 0-tcp.VOL-server: poll error on socket<br>
[2018-02-28 19:35:58.380530] I [MSGID: 115036] [server.c:527:server_rpc_notif<wbr>y] 0-VOL-server: disconnecting connection from CLIENT-30688-2018/02/28-03:11:<wbr>39:784734-VOL-client-1-0-0<br>
[2018-02-28 19:35:58.380932] I [socket.c:3672:socket_submit_r<wbr>eply] 0-tcp.VOL-server: not connected (priv-&gt;connected = -1)<br>
[2018-02-28 19:35:58.380960] E [rpcsvc.c:1364:rpcsvc_submit_g<wbr>eneric] 0-rpc-service: failed to submit message (XID: 0xa4e, Program: GlusterFS 3.3, ProgVers: 330, Proc: 25) to rpc-transport (tcp.uploads-server)<br>
[2018-02-28 19:35:58.381124] E [server.c:195:server_submit_re<wbr>ply] (--&gt;/usr/lib/x86_64-linux-gnu/<wbr>glusterfs/3.12.6/xlator/debug/<wbr>io-stats.so(+0x1ae6a) [0x7f97bd37ee6a] --&gt;/usr/lib/x86_64-linux-gnu/g<wbr>lusterfs/3.12.6/xlator/protoco<wbr>l/server.so(+0x1d4c8) [0x7f97bcf1f4c8] --&gt;/usr/lib/x86_64-linux-gnu/g<wbr>lusterfs/3.12.6/xlator/protoco<wbr>l/server.so(+0x8bd5) [0x7f97bcf0abd5] ) 0-: Reply submission failed<br>
[2018-02-28 19:35:58.381196] I [MSGID: 101055] [client_t.c:443:gf_client_unre<wbr>f] 0-VOL-server: Shutting down connection CLIENT-30688-2018/02/28-03:11:<wbr>39:784734-VOL-client-1-0-0<br>
[2018-02-28 19:40:58.351350] I [addr.c:55:compare_addr_and_up<wbr>date] 0-/glusterfs/uploads-brick2/da<wbr>ta: allowed = &quot;*&quot;, received addr = &quot;CLIENT&quot;<br>
[2018-02-28 19:40:58.351684] I [login.c:34:gf_auth] 0-auth/login: connecting user name: CLIENT<br>
<br>
SERVER1:/var/log/glusterfs/bri<wbr>cks/VOL-brick1.log<br>
[2018-02-28 19:35:58.509713] W [socket.c:593:__socket_rwv] 0-tcp.VOL-server: writev on CLIENT:49150 failed (No data available)<br>
[2018-02-28 19:35:58.509839] E [socket.c:2632:socket_poller] 0-tcp.VOL-server: poll error on socket<br>
[2018-02-28 19:35:58.509957] I [MSGID: 115036] [server.c:527:server_rpc_notif<wbr>y] 0-VOL-server: disconnecting connection from CLIENT-30688-2018/02/28-03:11:<wbr>39:784734-VOL-client-0-0-0<br>
[2018-02-28 19:35:58.510258] I [socket.c:3672:socket_submit_r<wbr>eply] 0-tcp.VOL-server: not connected (priv-&gt;connected = -1)<br>
[2018-02-28 19:35:58.510281] E [rpcsvc.c:1364:rpcsvc_submit_g<wbr>eneric] 0-rpc-service: failed to submit message (XID: 0x4b3f, Program: GlusterFS 3.3, ProgVers: 330, Proc: 25) to rpc-transport (tcp.VOL-server)<br>
[2018-02-28 19:35:58.510357] E [server.c:195:server_submit_re<wbr>ply] (--&gt;/usr/lib/x86_64-linux-gnu/<wbr>glusterfs/3.12.6/xlator/debug/<wbr>io-stats.so(+0x1ae6a) [0x7f85bb7a8e6a] --&gt;/usr/lib/x86_64-linux-gnu/g<wbr>lusterfs/3.12.6/xlator/protoco<wbr>l/server.so(+0x1d4c8) [0x7f85bb3494c8] --&gt;/usr/lib/x86_64-linux-gnu/g<wbr>lusterfs/3.12.6/xlator/protoco<wbr>l/server.so(+0x8bd5) [0x7f85bb334bd5] ) 0-: Reply submission failed<br>
[2018-02-28 19:35:58.510409] I [MSGID: 101055] [client_t.c:443:gf_client_unre<wbr>f] 0-VOL-server: Shutting down connection CLIENT-30688-2018/02/28-03:11:<wbr>39:784734-VOL-client-0-0-0<br>
[2018-02-28 19:40:58.364068] I [addr.c:55:compare_addr_and_up<wbr>date] 0-/glusterfs/uploads-brick1/da<wbr>ta: allowed = &quot;*&quot;, received addr = &quot;CLIENT&quot;<br>
[2018-02-28 19:40:58.364137] I [login.c:34:gf_auth] 0-auth/login: connecting user name: CLIENT<br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/mailm<wbr>an/listinfo/gluster-users</a><br>
</blockquote></div><br></div>