<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">You’ve probably got multiple glusterfsd brick processes running. It’s possible to track them down and kill them from a shell, do a gluster vol status to see which one got registered last with glusterd, then ps -ax | grep glusterd | grep "&lt; volume name&gt;" and kill any extra one that are not the PID reported from vol status.&nbsp;<div class=""><br class=""></div><div class="">And upgrade to gluster6, I’m not all the way through that process, but so far it seems to resolve that problem for me.<br class=""><div><br class=""><blockquote type="cite" class=""><div class="">On Apr 7, 2019, at 8:48 AM, Strahil &lt;<a href="mailto:hunter86_bg@yahoo.com" class="">hunter86_bg@yahoo.com</a>&gt; wrote:</div><br class="Apple-interchange-newline"><div class=""><p dir="ltr" class="">Hi,</p><p dir="ltr" class="">After a hardware maintenance (GPU removed)&nbsp; I have powered my oVirt node running gluster 5.5 and noticed that one volume has no running brick locally.</p><p dir="ltr" class="">After forcefully starting the volume, the brick is up but almost instantly I got the following on my CentOS 7 terminal.<br class="">
================================</p><p dir="ltr" class="">[root@ovirt2 ~]# gluster volume heal isos full<br class="">
Broadcast message from <a href="mailto:systemd-journald@ovirt2.localdomain" class="">systemd-journald@ovirt2.localdomain</a> (Sun 2019-04-07 16:41:30 EEST):</p><p dir="ltr" class="">gluster_bricks-isos-isos[6884]: [2019-04-07 13:41:30.148365] M [MSGID: 113075] [posix-helpers.c:1957:posix_health_check_thread_proc] 0-isos-posix: health-check failed, going down<br class=""></p><p dir="ltr" class="">Broadcast message from <a href="mailto:systemd-journald@ovirt2.localdomain" class="">systemd-journald@ovirt2.localdomain</a> (Sun 2019-04-07 16:41:30 EEST):</p><p dir="ltr" class="">gluster_bricks-isos-isos[6884]: [2019-04-07 13:41:30.148934] M [MSGID: 113075] [posix-helpers.c:1975:posix_health_check_thread_proc] 0-isos-posix: still alive! -&gt; SIGTERM<br class=""></p><p dir="ltr" class="">Message from syslogd@ovirt2 at Apr&nbsp; 7 16:41:30 ...<br class="">
 gluster_bricks-isos-isos[6884]:[2019-04-07 13:41:30.148365] M [MSGID: 113075] [posix-helpers.c:1957:posix_health_check_thread_proc] 0-isos-posix: health-check failed, going down</p><p dir="ltr" class="">Message from syslogd@ovirt2 at Apr&nbsp; 7 16:41:30 ...<br class="">
 gluster_bricks-isos-isos[6884]:[2019-04-07 13:41:30.148934] M [MSGID: 113075] [posix-helpers.c:1975:posix_health_check_thread_proc] 0-isos-posix: still alive! -&gt; SIGTERM</p><p dir="ltr" class="">================================</p><p dir="ltr" class="">Restarting glusterd.service didn't help.<br class="">
How should I debug it ?</p><p dir="ltr" class="">Best Regards,<br class="">
Strahil Nikolov</p>
_______________________________________________<br class="">Gluster-users mailing list<br class=""><a href="mailto:Gluster-users@gluster.org" class="">Gluster-users@gluster.org</a><br class="">https://lists.gluster.org/mailman/listinfo/gluster-users</div></blockquote></div><br class=""></div></body></html>