<p dir="ltr">Thanks Darrell,</p>
<p dir="ltr">I just let it idle for 15&nbsp; min and on the next start force didn't have the issue. I guess the process died and on the force start there were no more&nbsp; processes&nbsp; for this brick.<br>
I will have your words in mind next time.</p>
<p dir="ltr">I'm planing to move to Gluster v6 , but as far as I know oVirt has some kind of integration with gluster and I'm not sure what will happen.<br>
For now 5.5 is way more stable than 5.3 and I will keep with the officially provided by oVirt.</p>
<p dir="ltr">Best Regards,<br>
Strahil Nikolov<br>
</p>
<div class="quote">On Apr 7, 2019 17:06, Darrell Budic &lt;budic@onholyground.com&gt; wrote:<br type='attribution'><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word">You’ve probably got multiple glusterfsd brick processes running. It’s possible to track them down and kill them from a shell, do a gluster vol status to see which one got registered last with glusterd, then ps -ax | grep glusterd | grep &#34;&lt; volume name&gt;&#34; and kill any extra one that are not the PID reported from vol status. <div><br /></div><div>And upgrade to gluster6, I’m not all the way through that process, but so far it seems to resolve that problem for me.<br /><div><br /><blockquote><div>On Apr 7, 2019, at 8:48 AM, Strahil &lt;<a href="mailto:hunter86_bg&#64;yahoo.com">hunter86_bg&#64;yahoo.com</a>&gt; wrote:</div><br /><div><p dir="ltr">Hi,</p><p dir="ltr">After a hardware maintenance (GPU removed)  I have powered my oVirt node running gluster 5.5 and noticed that one volume has no running brick locally.</p><p dir="ltr">After forcefully starting the volume, the brick is up but almost instantly I got the following on my CentOS 7 terminal.<br />
&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;</p><p dir="ltr">[root&#64;ovirt2 ~]# gluster volume heal isos full<br />
Broadcast message from <a href="mailto:systemd-journald&#64;ovirt2.localdomain">systemd-journald&#64;ovirt2.localdomain</a> (Sun 2019-04-07 16:41:30 EEST):</p><p dir="ltr">gluster_bricks-isos-isos[6884]: [2019-04-07 13:41:30.148365] M [MSGID: 113075] [posix-helpers.c:1957:posix_health_check_thread_proc] 0-isos-posix: health-check failed, going down<br /></p><p dir="ltr">Broadcast message from <a href="mailto:systemd-journald&#64;ovirt2.localdomain">systemd-journald&#64;ovirt2.localdomain</a> (Sun 2019-04-07 16:41:30 EEST):</p><p dir="ltr">gluster_bricks-isos-isos[6884]: [2019-04-07 13:41:30.148934] M [MSGID: 113075] [posix-helpers.c:1975:posix_health_check_thread_proc] 0-isos-posix: still alive! -&gt; SIGTERM<br /></p><p dir="ltr">Message from syslogd&#64;ovirt2 at Apr  7 16:41:30 ...<br />
 gluster_bricks-isos-isos[6884]:[2019-04-07 13:41:30.148365] M [MSGID: 113075] [posix-helpers.c:1957:posix_health_check_thread_proc] 0-isos-posix: health-check failed, going down</p><p dir="ltr">Message from syslogd&#64;ovirt2 at Apr  7 16:41:30 ...<br />
 gluster_bricks-isos-isos[6884]:[2019-04-07 13:41:30.148934] M [MSGID: 113075] [posix-helpers.c:1975:posix_health_check_thread_proc] 0-isos-posix: still alive! -&gt; SIGTERM</p><p dir="ltr">&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;&#61;</p><p dir="ltr">Restarting glusterd.service didn&#39;t help.<br />
How should I debug it ?</p><p dir="ltr">Best Regards,<br />
Strahil Nikolov</p>
_______________________________________________<br />Gluster-users mailing list<br /><a href="mailto:Gluster-users&#64;gluster.org">Gluster-users&#64;gluster.org</a><br /><a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a></div></blockquote></div><br /></div></div></blockquote></div>