<div dir="ltr"><div>I think there have been improvements here to use special instructions to do the increments instead of taking spin-locks and doing increments. So may be it doesn&#39;t affect performance as much anymore. I think if you don&#39;t see a difference, then the enhancements are doing a good job :-).<br><br></div>Which version of gluster are you using?<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jun 5, 2017 at 8:09 AM, Xie Changlong <span dir="ltr">&lt;<a href="mailto:xiechanglong.d@gmail.com" target="_blank">xiechanglong.d@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi all<br>
<br>
It&#39;s said[1] that profile based on io-stats, if you enable this feature, it can affect system performance while the profile information is being collected.<br>
<br>
I do some tests on my two linux+vmware virtual machine with replica(lack of resources ). And the results shows no diffrence to me, following is the test case<br>
#dd if=/dev/zero  of=test bs=4k count=524288<br>
#fio --filename=test -iodepth=64 -ioengine=libaio --direct=1 --rw=read --bs=1m --size=2g --numjobs=4 --runtime=10 --group_reporting --name=test-read<br>
#fio -filename=test -iodepth=64 -ioengine=libaio -direct=1 -rw=write -bs=1m -size=2g -numjobs=4 -runtime=20 -group_reporting -name=test-write<br>
#fio -filename=test -iodepth=64 -ioengine=libaio -direct=1 -rw=randread -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=test-rand-read<br>
#fio -filename=test -iodepth=64 -ioengine=libaio -direct=1 -rw=randwrite -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=test-rand-write<br>
It&#39;s said that fio is only for lagre files, also i suspect that the test infrastructure is too small. The question is that, if you guys have detailed data for how profile affect performance?<br>
<br>
More, we wanna gain the detail r/w iops/bandwidth data for each brick. It seems that only profile can provide relatived data to be calculated?if i&#39;m wrong pls corrent me.<br>
<br>
If profile really affect peformance so much, would you mind a new command such as &quot;gluster volume io [nfs]&quot; to acquire brick r/w fops/data? Or just help us review it?<br>
<br>
[1] <a href="https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3.2/html/administration_guide/chap-monitoring_red_hat_storage_workload#sect-Running_the_Volume_Profile_Command" rel="noreferrer" target="_blank">https://access.redhat.com/docu<wbr>mentation/en-us/red_hat_gluste<wbr>r_storage/3.2/html/administrat<wbr>ion_guide/chap-monitoring_red_<wbr>hat_storage_workload#sect-<wbr>Running_the_Volume_Profile_<wbr>Command</a><span class="HOEnZb"><font color="#888888"><br>
-- <br>
Thanks<br>
    -Xie<br>
______________________________<wbr>_________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@gluster.org" target="_blank">Gluster-devel@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-devel" rel="noreferrer" target="_blank">http://lists.gluster.org/mailm<wbr>an/listinfo/gluster-devel</a><br>
</font></span></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Pranith<br></div></div>
</div>