<div dir="ltr"><div>Serkan,</div><div><br></div><div>I have initially changed shd-max-thread 1 to 2 saw a little difference and changing it to 4 &amp; 8. doesn&#39;t make any difference.<br></div><div>disk write speed was about &lt;1MB and data passed in thru network for healing node from other node were 4MB combined.</div><div><br></div><div>Also, I tried ls -l from mount point to the folders and files which need to be healed but have not seen any difference in performance.</div><div><br></div><div>But after 3 days of heal process running disk write speed was increased to 9 - 11MB and data passed thru network for healing node from other node were 40MB combined.</div><div><br></div><div>Still 14GB of data to be healed when comparing to other disks in set.</div><div><br></div><div>I saw in another thread you also had the issue with heal speed, did you face any issue in reading data from rest of the good bricks in the set. like slow read &lt; KB/s.</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Apr 17, 2017 at 2:05 PM, Serkan Çoban <span dir="ltr">&lt;<a href="mailto:cobanserkan@gmail.com" target="_blank">cobanserkan@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Normally I see 8-10MB/sec/brick heal speed with gluster 3.7.11.<br>
I tested parallel heal for disperse with version 3.9.0 and see that it<br>
increase the heal speed to 20-40MB/sec<br>
I tested with shd-max-threads 2,4,8 and saw that best performance<br>
achieved with 2 or 4 threads.<br>
you can try to start with 2 and test with 4 and 8 and compare the results?<br>
</blockquote></div><br></div>