<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <p>Very strange.  I see this in the glusterd.log</p>
    <p>[2018-12-22 23:53:47.216743] E [MSGID: 101191]
      [event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Failed to
      dispatch handler<br>
      (END)</p>
    <p>After force starting the volume and doing a <br>
    </p>
    <p>gluster vol  heal projects full</p>
    <p>This is in the glustershd log so I assume it started.<br>
    </p>
    <p>[2018-12-22 22:54:22.328897] I [MSGID: 114046]
      [client-handshake.c:1107:client_setvolume_cbk]
      0-projects-client-5: Connected to projects-client-5, attached to
      remote volume '/srv/gfs01/Projects'.</p>
    <p>This shows up in the glfsheal-projects.log file.</p>
    <p>[2018-12-22 23:53:41.916773] E [MSGID: 101191]
      [event-epoll.c:671:event_dispatch_epoll_worker] 0-epoll: Failed to
      dispatch handler</p>
    <p>I'm not sure what it's trying to tell me when it fails to
      dispatch a handler.</p>
    <p>From what I could find there were issues in the early 5.0 build
      with some of these errors coming up but that a patch was included
      early on.  I am on 5.2</p>
    <p>I'll keep digging.<br>
    </p>
    <p><br>
    </p>
    <div class="moz-cite-prefix">On 12/20/18 8:26 PM, John Strunk wrote:<br>
    </div>
    <blockquote type="cite"
cite="mid:CAMLs-gRPSPvjEAvZNZLyNYvruEGvs-v2WL6m=un5v00pXXcMnw@mail.gmail.com">
      <meta http-equiv="content-type" content="text/html; charset=UTF-8">
      <div dir="ltr">Assuming your bricks are up... yes, the heal count
        should be decreasing.
        <div><br>
        </div>
        <div>There is/was a bug wherein self-heal would stop healing but
          would still be running. I don't know whether your version is
          affected, but the remedy is to just restart the self-heal
          daemon.</div>
        <div>Force start one of the volumes that has heals pending. The
          bricks are already running, but it will cause shd to restart
          and, assuming this is the problem, healing should begin...</div>
        <div><br>
        </div>
        <div>$ gluster vol start my-pending-heal-vol force</div>
        <div><br>
        </div>
        <div>Others could better comment on the status of the bug.</div>
        <div><br>
        </div>
        <div>-John</div>
        <div><br>
        </div>
      </div>
      <br>
      <div class="gmail_quote">
        <div dir="ltr">On Thu, Dec 20, 2018 at 5:45 PM Brett Holcomb
          &lt;<a href="mailto:biholcomb@l1049h.com"
            moz-do-not-send="true">biholcomb@l1049h.com</a>&gt; wrote:<br>
        </div>
        <blockquote class="gmail_quote" style="margin:0px 0px 0px
          0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I
          have one volume that has 85 pending entries in healing and two
          more <br>
          volumes with 58,854 entries in healing pending.  These numbers
          are from <br>
          the volume heal info summary command.  They have stayed
          constant for two <br>
          days now.  I've read the gluster docs and many more.  The
          Gluster docs <br>
          just give some commands and non gluster docs basically repeat
          that.  <br>
          Given that it appears no self-healing is going on for my
          volume I am <br>
          confused as to why.<br>
          <br>
          1.  If a self-heal deamon is listed on a host (all of mine
          show one with <br>
          a volume status command) can I assume it's enabled and
          running?<br>
          <br>
          2.  I assume the volume that has all the self-heals pending
          has some <br>
          serious issues even though I can access the files and
          directories on <br>
          it.  If self-heal is running shouldn't the numbers be
          decreasing?<br>
          <br>
          It appears to me self-heal is not working properly so how to I
          get it to <br>
          start working or should I delete the volume and start over?<br>
          <br>
          I'm running gluster 5.2 on Centos 7 latest and updated.<br>
          <br>
          Thank you.<br>
          <br>
          <br>
          _______________________________________________<br>
          Gluster-users mailing list<br>
          <a href="mailto:Gluster-users@gluster.org" target="_blank"
            moz-do-not-send="true">Gluster-users@gluster.org</a><br>
          <a
            href="https://lists.gluster.org/mailman/listinfo/gluster-users"
            rel="noreferrer" target="_blank" moz-do-not-send="true">https://lists.gluster.org/mailman/listinfo/gluster-users</a></blockquote>
      </div>
    </blockquote>
  </body>
</html>