Can we add a smarter error message for this situation by checking volume type first?<div><br></div><div>Cheers,</div><div>Laura B<br><br>On Wednesday, March 14, 2018, Karthik Subrahmanya &lt;<a href="mailto:ksubrahm@redhat.com">ksubrahm@redhat.com</a>&gt; wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div><div><div><div>Hi Anatoliy,<br><br></div>The heal command is basically used to heal any mismatching contents between replica copies of the files.<br></div>For the command &quot;gluster volume heal &lt;volname&gt;&quot; to succeed, you should have the self-heal-daemon running,<br>which is true only if your volume is of type replicate/disperse.<br></div>In your case you have a plain distribute volume where you do not store the replica of any files.<br></div>So the volume heal will return you the error.<br><br></div>Regards,<br></div>Karthik<br> </div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Mar 13, 2018 at 7:53 PM, Anatoliy Dmytriyev <span dir="ltr">&lt;<a href="mailto:tolid@tolid.eu.org" target="_blank">tolid@tolid.eu.org</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
<br>
Maybe someone can point me to a documentation or explain this? I can&#39;t find it myself.<br>
Do we have any other useful resources except <a href="http://doc.gluster.org" rel="noreferrer" target="_blank">doc.gluster.org</a>? As I see many gluster options are not described there or there are no explanation what is doing...<div><div><br>
<br>
<br>
On 2018-03-12 15:58, Anatoliy Dmytriyev wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hello,<br>
<br>
We have a very fresh gluster 3.10.10 installation.<br>
Our volume is created as distributed volume, 9 bricks 96TB in total<br>
(87TB after 10% of gluster disk space reservation)<br>
<br>
For some reasons I can’t “heal” the volume:<br>
# gluster volume heal gv0<br>
Launching heal operation to perform index self heal on volume gv0 has<br>
been unsuccessful on bricks that are down. Please check if all brick<br>
processes are running.<br>
<br>
Which processes should be run on every brick for heal operation?<br>
<br>
# gluster volume status<br>
Status of volume: gv0<br>
Gluster process                             TCP Port  RDMA Port  Online  Pid<br>
------------------------------<wbr>------------------------------<wbr>------------------<br>
Brick cn01-ib:/gfs/gv0/brick1/brick         0         49152      Y       70850<br>
Brick cn02-ib:/gfs/gv0/brick1/brick         0         49152      Y       102951<br>
Brick cn03-ib:/gfs/gv0/brick1/brick         0         49152      Y       57535<br>
Brick cn04-ib:/gfs/gv0/brick1/brick         0         49152      Y       56676<br>
Brick cn05-ib:/gfs/gv0/brick1/brick         0         49152      Y       56880<br>
Brick cn06-ib:/gfs/gv0/brick1/brick         0         49152      Y       56889<br>
Brick cn07-ib:/gfs/gv0/brick1/brick         0         49152      Y       56902<br>
Brick cn08-ib:/gfs/gv0/brick1/brick         0         49152      Y       94920<br>
Brick cn09-ib:/gfs/gv0/brick1/brick         0         49152      Y       56542<br>
<br>
Task Status of Volume gv0<br>
------------------------------<wbr>------------------------------<wbr>------------------<br>
There are no active volume tasks<br>
<br>
<br>
# gluster volume info gv0<br>
Volume Name: gv0<br>
Type: Distribute<br>
Volume ID: 8becaf78-cf2d-4991-93bf-f24466<wbr>88154f<br>
Status: Started<br>
Snapshot Count: 0<br>
Number of Bricks: 9<br>
Transport-type: rdma<br>
Bricks:<br>
Brick1: cn01-ib:/gfs/gv0/brick1/brick<br>
Brick2: cn02-ib:/gfs/gv0/brick1/brick<br>
Brick3: cn03-ib:/gfs/gv0/brick1/brick<br>
Brick4: cn04-ib:/gfs/gv0/brick1/brick<br>
Brick5: cn05-ib:/gfs/gv0/brick1/brick<br>
Brick6: cn06-ib:/gfs/gv0/brick1/brick<br>
Brick7: cn07-ib:/gfs/gv0/brick1/brick<br>
Brick8: cn08-ib:/gfs/gv0/brick1/brick<br>
Brick9: cn09-ib:/gfs/gv0/brick1/brick<br>
Options Reconfigured:<br>
client.event-threads: 8<br>
performance.parallel-readdir: on<br>
performance.readdir-ahead: on<br>
cluster.nufa: on<br>
nfs.disable: on<br>
</blockquote>
<br>
-- <br>
Best regards,<br>
Anatoliy<br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/mailm<wbr>an/listinfo/gluster-users</a></div></div></blockquote></div><br></div>
</blockquote></div><br><br>-- <br><div dir="ltr"><div><div dir="ltr"><div><div>Laura Bailey</div><div>Senior Technical Writer</div><div>Customer Content Services BNE</div></div></div></div></div><br>