<div dir="ltr"><div>Kashif,</div><div>Could you also send over the client/mount log file as Vijay suggested ?</div><div>Or maybe the lines with the crash backtrace lines<br></div><div><br></div><div>Also, you&#39;ve mentioned that you straced glusterd, but when you ran gdb, you ran it over /usr/sbin/glusterfs</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Jun 12, 2018 at 8:19 PM, Vijay Bellur <span dir="ltr">&lt;<a href="mailto:vbellur@redhat.com" target="_blank">vbellur@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span class="">On Tue, Jun 12, 2018 at 7:40 AM, mohammad kashif <span dir="ltr">&lt;<a href="mailto:kashif.alig@gmail.com" target="_blank">kashif.alig@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Hi Milind<br></div><div><br></div><div>The operating system is Scientific Linux 6 which is based on RHEL6. The cpu arch is Intel x86_64.</div><div><br></div><div>I will send you a separate email with link to core dump.</div></div></blockquote><div><br></div><div><br></div></span><div>You could also grep for crash in the client log file and the lines following crash would have a backtrace in most cases.</div><div><br></div><div>HTH,</div><div>Vijay</div><div><div class="h5"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><span><div><br></div><div>Thanks for your help.</div><div><br></div><div>Kashif<br></div><div><br></div></span></div><div class="m_4152801743731486923HOEnZb"><div class="m_4152801743731486923h5"><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Jun 12, 2018 at 3:16 PM, Milind Changire <span dir="ltr">&lt;<a href="mailto:mchangir@redhat.com" target="_blank">mchangir@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Kashif,</div><div>Could you share the core dump via Google Drive or something similar</div><div><br></div><div>Also, let me know the CPU arch and OS Distribution on which you are running gluster.</div><div><br></div><div>If you&#39;ve installed the glusterfs-debuginfo package, you&#39;ll also get the source lines in the backtrace via gdb</div><div><br></div><div><br></div></div><div class="gmail_extra"><div><div class="m_4152801743731486923m_-4451941051880752073h5"><br><div class="gmail_quote">On Tue, Jun 12, 2018 at 5:59 PM, mohammad kashif <span dir="ltr">&lt;<a href="mailto:kashif.alig@gmail.com" target="_blank">kashif.alig@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Hi Milind, Vijay <br></div><div><br></div><div>Thanks, I have some more information now as I straced glusterd on client</div><div><br></div><div>138544      0.000131 mprotect(0x7f2f70785000, 4096, PROT_READ|PROT_WRITE) = 0 &lt;0.000026&gt;<br>138544      0.000128 mprotect(0x7f2f70786000, 4096, PROT_READ|PROT_WRITE) = 0 &lt;0.000027&gt;<br>138544      0.000126 mprotect(0x7f2f70787000, 4096, PROT_READ|PROT_WRITE) = 0 &lt;0.000027&gt;<br>138544      0.000124 --- SIGSEGV {si_signo=SIGSEGV, si_code=SEGV_ACCERR, si_addr=0x7f2f7c60ef88} ---<br>138544      0.000051 --- SIGSEGV {si_signo=SIGSEGV, si_code=SI_KERNEL, si_addr=0} ---<br>138551      0.105048 +++ killed by SIGSEGV (core dumped) +++<br>138550      0.000041 +++ killed by SIGSEGV (core dumped) +++<br>138547      0.000008 +++ killed by SIGSEGV (core dumped) +++<br>138546      0.000007 +++ killed by SIGSEGV (core dumped) +++<br>138545      0.000007 +++ killed by SIGSEGV (core dumped) +++<br>138544      0.000008 +++ killed by SIGSEGV (core dumped) +++<br>138543      0.000007 +++ killed by SIGSEGV (core dumped) +++</div><div><br></div><div>As for I understand that somehow gluster is trying to access memory in appropriate manner and kernel sends SIGSEGV <br></div><div><br></div><div>I also got the core dump. I am trying gdb first time so I am not sure whether I am using it correctly <br></div><div><br></div><div>gdb /usr/sbin/glusterfs core.138536</div><div><br></div><div>It just tell me that program terminated with signal 11, segmentation fault .</div><div><br></div><div>The problem is not limited to one client but happening to many clients. <br></div><div><br></div><div>I will really appreciate any help as whole file system has become unusable <br></div><div><br></div><div>Thanks</div><span class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629HOEnZb"><font color="#888888"><div><br></div><div>Kashif<br></div><div><br></div><div><br></div><div><br></div></font></span></div><div class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629HOEnZb"><div class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629h5"><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Jun 12, 2018 at 12:26 PM, Milind Changire <span dir="ltr">&lt;<a href="mailto:mchangir@redhat.com" target="_blank">mchangir@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Kashif,</div><div>You can change the log level by:</div><div>$ gluster volume set &lt;vol&gt; diagnostics.brick-log-level TRACE</div><div>$ gluster volume set &lt;vol&gt; diagnostics.client-log-level TRACE</div><div><br></div><div>and see how things fare</div><div><br></div><div>If you want fewer logs you can change the log-level to DEBUG instead of TRACE.</div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote"><div><div class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629m_7147468144477528676h5">On Tue, Jun 12, 2018 at 3:37 PM, mohammad kashif <span dir="ltr">&lt;<a href="mailto:kashif.alig@gmail.com" target="_blank">kashif.alig@gmail.com</a>&gt;</span> wrote:<br></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629m_7147468144477528676h5"><div dir="ltr"><div>Hi Vijay</div><div><br></div><div>Now it is unmounting every 30 mins ! <br></div><div><br></div><div>The server log at /var/log/glusterfs/bricks/glus<wbr>teratlas-brics001-gv0.log have this line only</div><div><br></div><div>2018-06-12 09:53:19.303102] I [MSGID: 115013] [server-helpers.c:289:do_fd_cl<wbr>eanup] 0-atlasglust-server: fd cleanup on /atlas/atlasdata/zgubic/hmumu/<wbr>histograms/v14.3/Signal<br>[2018-06-12 09:53:19.306190] I [MSGID: 101055] [client_t.c:443:gf_client_unre<wbr>f] 0-atlasglust-server: Shutting down connection &lt;server-name&gt; -2224879-2018/06/12-09:51:01:4<wbr>60889-atlasglust-client-0-0-0</div><div><br></div><div>There is no other information. Is there any way to increase log verbosity?</div><div><br></div><div>on the client <br></div><div><br></div><div>2018-06-12 09:51:01.744980] I [MSGID: 114057] [client-handshake.c:1478:selec<wbr>t_server_supported_programs] 0-atlasglust-client-5: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>[2018-06-12 09:51:01.746508] I [MSGID: 114046] [client-handshake.c:1231:clien<wbr>t_setvolume_cbk] 0-atlasglust-client-5: Connected to atlasglust-client-5, attached to remote volume &#39;/glusteratlas/brick006/gv0&#39;.<br>[2018-06-12 09:51:01.746543] I [MSGID: 114047] [client-handshake.c:1242:clien<wbr>t_setvolume_cbk] 0-atlasglust-client-5: Server and Client lk-version numbers are not same, reopening the fds<br>[2018-06-12 09:51:01.746814] I [MSGID: 114035] [client-handshake.c:202:client<wbr>_set_lk_version_cbk] 0-atlasglust-client-5: Server lk version = 1<br>[2018-06-12 09:51:01.748449] I [MSGID: 114057] [client-handshake.c:1478:selec<wbr>t_server_supported_programs] 0-atlasglust-client-6: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br>[2018-06-12 09:51:01.750219] I [MSGID: 114046] [client-handshake.c:1231:clien<wbr>t_setvolume_cbk] 0-atlasglust-client-6: Connected to atlasglust-client-6, attached to remote volume &#39;/glusteratlas/brick007/gv0&#39;.<br>[2018-06-12 09:51:01.750261] I [MSGID: 114047] [client-handshake.c:1242:clien<wbr>t_setvolume_cbk] 0-atlasglust-client-6: Server and Client lk-version numbers are not same, reopening the fds<br>[2018-06-12 09:51:01.750503] I [MSGID: 114035] [client-handshake.c:202:client<wbr>_set_lk_version_cbk] 0-atlasglust-client-6: Server lk version = 1<br>[2018-06-12 09:51:01.752207] I [fuse-bridge.c:4205:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.24 kernel 7.14<br>[2018-06-12 09:51:01.752261] I [fuse-bridge.c:4835:fuse_graph<wbr>_sync] 0-fuse: switched to graph 0<br></div><div><br></div><div><br></div><div>is there a problem with server and client 1k version?</div><div><br></div><div>Thanks for your help.</div><span class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629m_7147468144477528676m_605157100837625209HOEnZb"><font color="#888888"><div><br></div><div>Kashif<br></div><div><br></div><div><br></div><div><br></div><div>  </div></font></span></div><div class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629m_7147468144477528676m_605157100837625209HOEnZb"><div class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629m_7147468144477528676m_605157100837625209h5"><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jun 11, 2018 at 11:52 PM, Vijay Bellur <span dir="ltr">&lt;<a href="mailto:vbellur@redhat.com" target="_blank">vbellur@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span>On Mon, Jun 11, 2018 at 8:50 AM, mohammad kashif <span dir="ltr">&lt;<a href="mailto:kashif.alig@gmail.com" target="_blank">kashif.alig@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Hi</div><div><br></div><div>Since I have updated our gluster server and client to latest version 3.12.9-1, I am having this issue of gluster getting unmounted from client very regularly. It was not a problem before update.<br></div><div><br></div><div>Its a distributed file system with no replication. We have seven servers totaling around 480TB data. Its 97% full. <br></div><div><br></div><div>I am using following config on server</div><div><br></div><div><br></div>gluster volume set atlasglust features.cache-invalidation on<br>gluster volume set atlasglust features.cache-invalidation-ti<wbr>meout 600<br>gluster volume set atlasglust performance.stat-prefetch on<br>gluster volume set atlasglust performance.cache-invalidation on<br>gluster volume set atlasglust performance.md-cache-timeout 600<br>gluster volume set atlasglust performance.parallel-readdir on<br>gluster volume set atlasglust performance.cache-size 1GB<br>gluster volume set atlasglust performance.client-io-threads on<br>gluster volume set atlasglust cluster.lookup-optimize on<br>gluster volume set atlasglust performance.stat-prefetch on<br>gluster volume set atlasglust client.event-threads 4<br>gluster volume set atlasglust server.event-threads 4<br><div><br></div><div>clients are mounted with this option</div><div><br></div><div>defaults,direct-io-mode=disabl<wbr>e,attribute-timeout=600,entry-<wbr>timeout=600,negative-timeout=6<wbr>00,fopen-keep-cache,rw,_netdev <br></div><div><br></div><div>I can&#39;t see anything in the log file. Can someone suggest that how to troubleshoot this issue?</div><div><br></div><div><br></div></div></blockquote><div><br></div><div><br></div></span><div>Can you please share the log file? Checking for messages related to disconnections/crashes in the log file would be a good way to start troubleshooting the problem.</div><div><br></div><div>Thanks,</div><div>Vijay </div></div></div></div>
</blockquote></div><br></div>
</div></div><br></div></div>______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/mailm<wbr>an/listinfo/gluster-users</a><span class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629m_7147468144477528676HOEnZb"><font color="#888888"><br></font></span></blockquote></div><span class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629m_7147468144477528676HOEnZb"><font color="#888888"><br><br clear="all"><br>-- <br><div class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629m_7147468144477528676m_605157100837625209gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr">Milind<br><br></div></div></div></div>
</font></span></div>
</blockquote></div><br></div>
</div></div></blockquote></div><br><br clear="all"><br></div></div><span class="m_4152801743731486923m_-4451941051880752073HOEnZb"><font color="#888888">-- <br><div class="m_4152801743731486923m_-4451941051880752073m_3059762644582098629gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr">Milind<br><br></div></div></div></div>
</font></span></div>
</blockquote></div><br></div>
</div></div></blockquote></div></div></div><br></div></div>
</blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr">Milind<br><br></div></div></div></div>
</div>