<div dir="ltr"><div><br></div>I actually used this (find /mnt/gluster -d -exec getfattr -h -n trusted.ec.heal {} \; &gt; /dev/null<br>) command on a specific folder to trigger heal but it was also not showing any difference in speed.<div><br></div><div>I was asking about reading data in same disperse set like 8+2 disperse config if one disk is replaced and when heal is in process and when client reads data which is available in rest of the 9 disks. </div><div><br></div><div>I am sure there was no bottleneck on network/disk IO in my case. </div><div><br></div><div><table border="0" cellpadding="0" cellspacing="0" width="777" style="border-collapse:collapse;width:583pt">
 <colgroup><col width="777" style="width:583pt"> </colgroup><tbody><tr height="20" style="height:15pt">
  <td height="20" width="777" style="height:15pt;width:583pt">I have tested 3.10.1 heal with disperse.shd-max-threads = 4. heal completed data size of 27GB in 13M15s. so it works well in a test environment but production environment it differs.<br><br></td>
 </tr>
 <tr height="20" style="height:15pt">
  <td height="20" style="height:15pt"><br></td>
 </tr></tbody></table><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Apr 18, 2017 at 12:47 PM, Serkan Çoban <span dir="ltr">&lt;<a href="mailto:cobanserkan@gmail.com" target="_blank">cobanserkan@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">You can increase heal speed by running below command from a client:<br>
find /mnt/gluster -d -exec getfattr -h -n trusted.ec.heal {} \; &gt; /dev/null<br>
<br>
You can write a script with different folders to make it parallel.<br>
<br>
In my case I see 6TB data was healed within 7-8 days with above command running.<br>
<span class="gmail-">&gt;did you face any issue in reading data from rest of the good bricks in the set. like slow read &lt; KB/s.<br>
</span>No, nodes generally have balanced network/disk  IO during heal..<br>
<br>
You should make a detailed tests with non-prod cluster and try to find<br>
optimum heal configuration for your use case..<br>
Our new servers are on the way, in a couple of months I also will do<br>
detailed tests with 3.10.x and parallel disperse heal, will post the<br>
results here...<br>
<div class="gmail-HOEnZb"><div class="gmail-h5"><br>
<br>
On Tue, Apr 18, 2017 at 9:51 AM, Amudhan P &lt;<a href="mailto:amudhan83@gmail.com">amudhan83@gmail.com</a>&gt; wrote:<br>
&gt; Serkan,<br>
&gt;<br>
&gt; I have initially changed shd-max-thread 1 to 2 saw a little difference and<br>
&gt; changing it to 4 &amp; 8. doesn&#39;t make any difference.<br>
&gt; disk write speed was about &lt;1MB and data passed in thru network for healing<br>
&gt; node from other node were 4MB combined.<br>
&gt;<br>
&gt; Also, I tried ls -l from mount point to the folders and files which need to<br>
&gt; be healed but have not seen any difference in performance.<br>
&gt;<br>
&gt; But after 3 days of heal process running disk write speed was increased to 9<br>
&gt; - 11MB and data passed thru network for healing node from other node were<br>
&gt; 40MB combined.<br>
&gt;<br>
&gt; Still 14GB of data to be healed when comparing to other disks in set.<br>
&gt;<br>
&gt; I saw in another thread you also had the issue with heal speed, did you face<br>
&gt; any issue in reading data from rest of the good bricks in the set. like slow<br>
&gt; read &lt; KB/s.<br>
&gt;<br>
&gt; On Mon, Apr 17, 2017 at 2:05 PM, Serkan Çoban &lt;<a href="mailto:cobanserkan@gmail.com">cobanserkan@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Normally I see 8-10MB/sec/brick heal speed with gluster 3.7.11.<br>
&gt;&gt; I tested parallel heal for disperse with version 3.9.0 and see that it<br>
&gt;&gt; increase the heal speed to 20-40MB/sec<br>
&gt;&gt; I tested with shd-max-threads 2,4,8 and saw that best performance<br>
&gt;&gt; achieved with 2 or 4 threads.<br>
&gt;&gt; you can try to start with 2 and test with 4 and 8 and compare the results?<br>
&gt;<br>
&gt;<br>
</div></div></blockquote></div><br></div></div></div>