<div dir="auto">Yes, I would be interested to hear more on the findings. Let us know once you have them. </div><div class="gmail_extra"><br><div class="gmail_quote">On Nov 1, 2017 13:10, &quot;Shyam Ranganathan&quot; &lt;<a href="mailto:srangana@redhat.com">srangana@redhat.com</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 10/31/2017 08:36 PM, Ben Turner wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
* Erasure coded volumes with sharding - seen as a good fit for VM disk<br>
storage<br>
</blockquote>
I am working on this with a customer, we have been able to do 400-500 MB / sec writes!  Normally things max out at ~150-250.  The trick is to use multiple files, create the lvm stack and use native LVM striping.  We have found that 4-6 files seems to give the best perf on our setup.  I don&#39;t think we are using sharding on the EC vols, just multiple files and LVM striping.  Sharding may be able to avoid the LVM striping, but I bet dollars to doughnuts you won&#39;t see this level of perf:)   I am working on a blog post for RHHI and RHEV + RHS performance where I am able to in some cases get 2x+ the performance out of VMs / VM storage.  I&#39;d be happy to share my data / findings.<br>
<br>
</blockquote>
<br>
Ben, we would like to hear more, so please do share your thoughts further. There are a fair number of users in the community who have this use-case and may have some interesting questions around the proposed method.<br>
<br>
Shyam<br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/mailm<wbr>an/listinfo/gluster-users</a><br>
</blockquote></div></div>