<p dir="ltr">Adding Gluster users' mail list.</p>
<div class="quote">On Apr 5, 2019 06:02, Leo David &lt;leoalex@gmail.com&gt; wrote:<br type='attribution'><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>Hi Everyone,<div>Any thoughts on this ?</div><div><br /></div></div><br /><div class="elided-text"><div dir="ltr">On Wed, Apr 3, 2019, 17:02 Leo David &lt;<a href="mailto:leoalex&#64;gmail.com">leoalex&#64;gmail.com</a>&gt; wrote:<br /></div><blockquote style="margin:0 0 0 0.8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Hi Everyone,</div><div>For a hyperconverged setup started with 3 nodes and going up in time up to 12 nodes, I have to choose between LSI2008 ( jbod ) and LSI9265 (raid).</div><div>Perc h710 ( raid ) might be an option too, but on a different chassis.</div><div>There will not be many disk installed on each node, so the replication will be replica 3 replicated-distribute volumes across the nodes as:</div><div>node1/disk1  node2/disk1  node3/disk1</div><div>node1/disk2  node2/disk2  node3/disk2</div><div>and so on...<br clear="all" />As i will add nodes to the cluster ,  I intend expand the volumes using the same rule.</div><div>What would it be a better way,  to used jbod cards ( no cache ) or raid card and create raid0 arrays ( one for each disk ) and therefore have a bit of raid cache ( 512Mb ) ?</div><div>Is raid caching a benefit to have it underneath ovirt/gluster as long as I go for &#34;Jbod&#34;  installation anyway ?</div><div>Thank you very much !<br />-- <br /></div><div dir="ltr">Best regards, Leo David</div></div>
</blockquote></div>
</blockquote></div>