<html><head></head><body>I don't have the system configured to dump core, but I'll change that and try.<br><br><div class="gmail_quote">On February 14, 2020 6:39:23 PM PST, Mohit Agrawal &lt;moagrawa@redhat.com&gt; wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<div dir="ltr">I don't think it is similar to Xavi fixed in <a href="https://review.gluster.org/#/c/glusterfs/+/24099/">https://review.gluster.org/#/c/glusterfs/+/24099/</a>.<br>Is it possible to share the output "thread apply all bt full" after attaching the core with gdb?<br><div><br></div><div>Regards,</div><div>Mohit Agrawal</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Feb 15, 2020 at 7:25 AM Amar Tumballi &lt;<a href="mailto:amar@kadalu.io">amar@kadalu.io</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Is this crash seen already ?&nbsp; Does&nbsp;<a href="https://review.gluster.org/#/c/glusterfs/+/24099/" target="_blank">https://review.gluster.org/#/c/glusterfs/+/24099/</a>&nbsp;fix this?</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Feb 15, 2020 at 4:32 AM Joe Julian &lt;<a href="mailto:joe@julianfamily.org" target="_blank">joe@julianfamily.org</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">These crashes have been happening almost daily. Any thoughts on how to <br>
stabilize this?<br>
<br>
<br>
[2020-02-14 19:02:13.932178] I [MSGID: 100030] [glusterfsd.c:2865:main] <br>
0-/usr/bin/glusterfs: Started running /usr/bin/glusterfs version 7.0 <br>
(args: /usr/bin/glusterfs --process-name fuse --volfile-server=gluster <br>
--volfile-id=kube /tmp/hostpath_pv)<br>
[2020-02-14 19:02:13.939208] I [glusterfsd.c:2593:daemonize] <br>
0-glusterfs: Pid of current running process is 1828083<br>
[2020-02-14 19:02:13.970829] I [MSGID: 101190] <br>
[event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Started thread <br>
with index 0<br>
[2020-02-14 19:02:13.970870] I [MSGID: 101190] <br>
[event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Started thread <br>
with index 1<br>
[2020-02-14 19:02:14.026097] W [MSGID: 108003] <br>
[afr.c:98:fix_quorum_options] 0-kube-replicate-0: quorum-type none <br>
overriding quorum-count 1<br>
[2020-02-14 19:02:14.027753] I [MSGID: 101190] <br>
[event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Started thread <br>
with index 2<br>
[2020-02-14 19:02:14.027871] I [MSGID: 101190] <br>
[event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Started thread <br>
with index 4<br>
[2020-02-14 19:02:14.027939] I [MSGID: 101190] <br>
[event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Started thread <br>
with index 5<br>
[2020-02-14 19:02:14.027984] I [MSGID: 101190] <br>
[event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Started thread <br>
with index 3<br>
[2020-02-14 19:02:14.028010] I [MSGID: 101190] <br>
[event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Started thread <br>
with index 6<br>
[2020-02-14 19:02:14.028410] I [MSGID: 101190] <br>
[event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Started thread <br>
with index 7<br>
[2020-02-14 19:02:14.028826] I [MSGID: 114020] [client.c:2434:notify] <br>
0-kube-client-0: parent translators are ready, attempting connect on <br>
transport<br>
[2020-02-14 19:02:14.031361] I [MSGID: 114020] [client.c:2434:notify] <br>
0-kube-client-1: parent translators are ready, attempting connect on <br>
transport<br>
[2020-02-14 19:02:14.031840] I [rpc-clnt.c:1962:rpc_clnt_reconfig] <br>
0-kube-client-0: changing port to 49159 (from 0)<br>
[2020-02-14 19:02:14.031880] I [socket.c:863:__socket_shutdown] <br>
0-kube-client-0: intentional socket shutdown(12)<br>
Final graph:<br>
+------------------------------------------------------------------------------+<br>
&nbsp;&nbsp; 1: volume kube-client-0<br>
&nbsp;&nbsp; 2:&nbsp;&nbsp;&nbsp;&nbsp; type protocol/client<br>
&nbsp;&nbsp; 3:&nbsp;&nbsp;&nbsp;&nbsp; option ping-timeout 42<br>
&nbsp;&nbsp; 4:&nbsp;&nbsp;&nbsp;&nbsp; option remote-host strabo<br>
&nbsp;&nbsp; 5:&nbsp;&nbsp;&nbsp;&nbsp; option remote-subvolume /data/gluster/kube<br>
&nbsp;&nbsp; 6:&nbsp;&nbsp;&nbsp;&nbsp; option transport-type socket<br>
&nbsp;&nbsp; 7:&nbsp;&nbsp;&nbsp;&nbsp; option transport.address-family inet<br>
&nbsp;&nbsp; 8:&nbsp;&nbsp;&nbsp;&nbsp; option username 51b95740-bff7-4744-bbfc-dbae17670997<br>
&nbsp;&nbsp; 9:&nbsp;&nbsp;&nbsp;&nbsp; option password 021da395-9404-43ac-b358-2f5dfc5acc71<br>
&nbsp;&nbsp;10:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.ssl-enabled off<br>
&nbsp;&nbsp;11:&nbsp;&nbsp;&nbsp;&nbsp; option filter-O_DIRECT on<br>
&nbsp;&nbsp;12:&nbsp;&nbsp;&nbsp;&nbsp; option event-threads 8<br>
&nbsp;&nbsp;13:&nbsp;&nbsp;&nbsp;&nbsp; option transport.tcp-user-timeout 0<br>
&nbsp;&nbsp;14:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-time 20<br>
&nbsp;&nbsp;15:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-interval 2<br>
&nbsp;&nbsp;16:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-count 9<br>
&nbsp;&nbsp;17:&nbsp;&nbsp;&nbsp;&nbsp; option send-gids true<br>
&nbsp;&nbsp;18: end-volume<br>
&nbsp;&nbsp;19:<br>
&nbsp;&nbsp;20: volume kube-client-1<br>
&nbsp;&nbsp;21:&nbsp;&nbsp;&nbsp;&nbsp; type protocol/client<br>
&nbsp;&nbsp;22:&nbsp;&nbsp;&nbsp;&nbsp; option ping-timeout 42<br>
&nbsp;&nbsp;23:&nbsp;&nbsp;&nbsp;&nbsp; option remote-host nightshade<br>
&nbsp;&nbsp;24:&nbsp;&nbsp;&nbsp;&nbsp; option remote-subvolume /data/gluster/kube<br>
&nbsp;&nbsp;25:&nbsp;&nbsp;&nbsp;&nbsp; option transport-type socket<br>
&nbsp;&nbsp;26:&nbsp;&nbsp;&nbsp;&nbsp; option transport.address-family inet<br>
&nbsp;&nbsp;27:&nbsp;&nbsp;&nbsp;&nbsp; option username 51b95740-bff7-4744-bbfc-dbae17670997<br>
&nbsp;&nbsp;28:&nbsp;&nbsp;&nbsp;&nbsp; option password 021da395-9404-43ac-b358-2f5dfc5acc71<br>
&nbsp;&nbsp;29:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.ssl-enabled off<br>
&nbsp;&nbsp;30:&nbsp;&nbsp;&nbsp;&nbsp; option filter-O_DIRECT on<br>
&nbsp;&nbsp;31:&nbsp;&nbsp;&nbsp;&nbsp; option event-threads 8<br>
&nbsp;&nbsp;32:&nbsp;&nbsp;&nbsp;&nbsp; option transport.tcp-user-timeout 0<br>
&nbsp;&nbsp;33:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-time 20<br>
&nbsp;&nbsp;34:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-interval 2<br>
&nbsp;&nbsp;35:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-count 9<br>
&nbsp;&nbsp;36:&nbsp;&nbsp;&nbsp;&nbsp; option send-gids true<br>
&nbsp;&nbsp;37: end-volume<br>
&nbsp;&nbsp;38:<br>
&nbsp;&nbsp;39: volume kube-replicate-0<br>
&nbsp;&nbsp;40:&nbsp;&nbsp;&nbsp;&nbsp; type cluster/replicate<br>
&nbsp;&nbsp;41:&nbsp;&nbsp;&nbsp;&nbsp; option afr-pending-xattr kube-client-0,kube-client-1<br>
&nbsp;&nbsp;42:&nbsp;&nbsp;&nbsp;&nbsp; option quorum-count 1<br>
&nbsp;&nbsp;43:&nbsp;&nbsp;&nbsp;&nbsp; option use-compound-fops off<br>
&nbsp;&nbsp;44:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes kube-client-0 kube-client-1<br>
&nbsp;&nbsp;45: end-volume<br>
&nbsp;&nbsp;46:<br>
&nbsp;&nbsp;47: volume kube-dht<br>
&nbsp;&nbsp;48:&nbsp;&nbsp;&nbsp;&nbsp; type cluster/distribute<br>
&nbsp;&nbsp;49:&nbsp;&nbsp;&nbsp;&nbsp; option readdir-optimize on<br>
&nbsp;&nbsp;50:&nbsp;&nbsp;&nbsp;&nbsp; option lock-migration off<br>
&nbsp;&nbsp;51:&nbsp;&nbsp;&nbsp;&nbsp; option force-migration off<br>
&nbsp;&nbsp;52:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes kube-replicate-0<br>
&nbsp;&nbsp;53: end-volume<br>
&nbsp;&nbsp;54:<br>
&nbsp;&nbsp;55: volume kube-io-cache<br>
&nbsp;&nbsp;56:&nbsp;&nbsp;&nbsp;&nbsp; type performance/io-cache<br>
&nbsp;&nbsp;57:&nbsp;&nbsp;&nbsp;&nbsp; option cache-timeout 30<br>
&nbsp;&nbsp;58:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes kube-dht<br>
&nbsp;&nbsp;59: end-volume<br>
&nbsp;&nbsp;60:<br>
&nbsp;&nbsp;61: volume kube-open-behind<br>
&nbsp;&nbsp;62:&nbsp;&nbsp;&nbsp;&nbsp; type performance/open-behind<br>
&nbsp;&nbsp;63:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes kube-io-cache<br>
&nbsp;&nbsp;64: end-volume<br>
&nbsp;&nbsp;65:<br>
&nbsp;&nbsp;66: volume kube-md-cache<br>
&nbsp;&nbsp;67:&nbsp;&nbsp;&nbsp;&nbsp; type performance/md-cache<br>
&nbsp;&nbsp;68:&nbsp;&nbsp;&nbsp;&nbsp; option cache-invalidation on<br>
&nbsp;&nbsp;69:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes kube-open-behind<br>
&nbsp;&nbsp;70: end-volume<br>
&nbsp;&nbsp;71:<br>
&nbsp;&nbsp;72: volume kube-io-threads<br>
&nbsp;&nbsp;73:&nbsp;&nbsp;&nbsp;&nbsp; type performance/io-threads<br>
&nbsp;&nbsp;74:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes kube-md-cache<br>
&nbsp;&nbsp;75: end-volume<br>
&nbsp;&nbsp;76:<br>
&nbsp;&nbsp;77: volume kube<br>
&nbsp;&nbsp;78:&nbsp;&nbsp;&nbsp;&nbsp; type debug/io-stats<br>
&nbsp;&nbsp;79:&nbsp;&nbsp;&nbsp;&nbsp; option log-level INFO<br>
&nbsp;&nbsp;80:&nbsp;&nbsp;&nbsp;&nbsp; option threads 16<br>
&nbsp;&nbsp;81:&nbsp;&nbsp;&nbsp;&nbsp; option latency-measurement off<br>
&nbsp;&nbsp;82:&nbsp;&nbsp;&nbsp;&nbsp; option count-fop-hits off<br>
&nbsp;&nbsp;83:&nbsp;&nbsp;&nbsp;&nbsp; option global-threading off<br>
&nbsp;&nbsp;84:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes kube-io-threads<br>
&nbsp;&nbsp;85: end-volume<br>
&nbsp;&nbsp;86:<br>
&nbsp;&nbsp;87: volume meta-autoload<br>
&nbsp;&nbsp;88:&nbsp;&nbsp;&nbsp;&nbsp; type meta<br>
&nbsp;&nbsp;89:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes kube<br>
&nbsp;&nbsp;90: end-volume<br>
&nbsp;&nbsp;91:<br>
+------------------------------------------------------------------------------+<br>
[2020-02-14 19:02:14.052685] I [rpc-clnt.c:1962:rpc_clnt_reconfig] <br>
0-kube-client-1: changing port to 49159 (from 0)<br>
[2020-02-14 19:02:14.052792] I [socket.c:863:__socket_shutdown] <br>
0-kube-client-1: intentional socket shutdown(13)<br>
[2020-02-14 19:02:14.056240] I [MSGID: 114057] <br>
[client-handshake.c:1373:select_server_supported_programs] <br>
0-kube-client-1: Using Program GlusterFS 4.x v1, Num (1298437), Version <br>
(400)<br>
[2020-02-14 19:02:14.076058] I [MSGID: 114046] <br>
[client-handshake.c:1104:client_setvolume_cbk] 0-kube-client-1: <br>
Connected to kube-client-1, attached to remote volume '/data/gluster/kube'.<br>
[2020-02-14 19:02:14.076113] I [MSGID: 108005] <br>
[afr-common.c:5277:__afr_handle_child_up_event] 0-kube-replicate-0: <br>
Subvolume 'kube-client-1' came back up; going online.<br>
[2020-02-14 19:02:24.031553] I [fuse-bridge.c:5162:fuse_init] <br>
0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.24 <br>
kernel 7.31<br>
[2020-02-14 19:02:24.031605] I [fuse-bridge.c:5777:fuse_graph_sync] <br>
0-fuse: switched to graph 0<br>
[2020-02-14 19:04:27.205776] I [rpc-clnt.c:1962:rpc_clnt_reconfig] <br>
0-kube-client-0: changing port to 49159 (from 0)<br>
[2020-02-14 19:06:40.325688] I [rpc-clnt.c:1962:rpc_clnt_reconfig] <br>
0-kube-client-0: changing port to 49159 (from 0)<br>
[2020-02-14 19:08:53.444994] I [rpc-clnt.c:1962:rpc_clnt_reconfig] <br>
0-kube-client-0: changing port to 49159 (from 0)<br>
[2020-02-14 19:11:06.565527] I [rpc-clnt.c:1962:rpc_clnt_reconfig] <br>
0-kube-client-0: changing port to 49159 (from 0)<br>
pending frames:<br>
frame : type(0) op(0)<br>
frame : type(0) op(0)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(FLUSH)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(FLUSH)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
frame : type(1) op(LOOKUP)<br>
patchset: git://<a href="http://git.gluster.org/glusterfs.git" rel="noreferrer" target="_blank">git.gluster.org/glusterfs.git</a><br>
signal received: 11<br>
time of crash:<br>
2020-02-14 19:13:00<br>
configuration details:<br>
argp 1<br>
backtrace 1<br>
dlfcn 1<br>
libpthread 1<br>
llistxattr 1<br>
setfsid 1<br>
spinlock 1<br>
epoll.h 1<br>
xattr.h 1<br>
st_atim.tv_nsec 1<br>
package-string: glusterfs 7.0<br>
/usr/lib/libglusterfs.so.0(+0x25e12)[0x7fc026b55e12]<br>
/usr/lib/libglusterfs.so.0(gf_print_trace+0x354)[0x7fc026b60b74]<br>
/usr/lib/libc.so.6(+0x3bfb0)[0x7fc0268e3fb0]<br>
/usr/lib/libglusterfs.so.0(mem_get+0xf0)[0x7fc026b81850]<br>
/usr/lib/libglusterfs.so.0(+0x1a4cd)[0x7fc026b4a4cd]<br>
/usr/lib/libglusterfs.so.0(dict_setn+0x1f1)[0x7fc026b4a941]<br>
/usr/lib/libglusterfs.so.0(dict_set_dynptr+0x32)[0x7fc026b4e342]<br>
/usr/lib/glusterfs/7.0/xlator/protocol/client.so(+0x3b318)[0x7fc0210cb318]<br>
/usr/lib/glusterfs/7.0/xlator/protocol/client.so(+0x56d03)[0x7fc0210e6d03]<br>
/usr/lib/libgfrpc.so.0(+0xe957)[0x7fc026afe957]<br>
/usr/lib/libgfrpc.so.0(+0xecc9)[0x7fc026afecc9]<br>
/usr/lib/libgfrpc.so.0(rpc_transport_notify+0x26)[0x7fc026afb816]<br>
/usr/lib/glusterfs/7.0/rpc-transport/socket.so(+0x4629)[0x7fc022294629]<br>
/usr/lib/glusterfs/7.0/rpc-transport/socket.so(+0xc45c)[0x7fc02229c45c]<br>
/usr/lib/libglusterfs.so.0(+0x8cedc)[0x7fc026bbcedc]<br>
/usr/lib/libpthread.so.0(+0x94cf)[0x7fc026a794cf]<br>
/usr/lib/libc.so.6(clone+0x43)[0x7fc0269a72d3]<br>
---------<br>
<br>
________<br>
<br>
Community Meeting Calendar:<br>
<br>
APAC Schedule -<br>
Every 2nd and 4th Tuesday at 11:30 AM IST<br>
Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br>
<br>
NA/EMEA Schedule -<br>
Every 1st and 3rd Tuesday at 01:00 PM EDT<br>
Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br>
<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr"><div dir="ltr">--<div><a href="https://kadalu.io" target="_blank">https://kadalu.io</a></div><div>Container Storage made easy!</div><div><br></div></div></div>
</blockquote></div>
</blockquote></div><br>-- <br>Sent from my Android device with K-9 Mail. Please excuse my brevity.</body></html>