<div dir="ltr"><div>Thanks very much for the advice. I hadn&#39;t really considered 
disperse volumes as I really liked the idea that recovery is much 
simpler in the scenario were you&#39;re distributing/replicating whole 
files. I guess I need to test both as you suggest.<br><br></div>Does memory size become an issue with a large number of bricks on a single node? Is there an optimum memory/brick ratio?</div><div class="gmail_extra"><br><div class="gmail_quote">On Sat, Feb 18, 2017 at 8:14 AM, Serkan Ă‡oban <span dir="ltr">&lt;<a href="mailto:cobanserkan@gmail.com" target="_blank">cobanserkan@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">With 1GB/file size you should definitely try JBOD with disperse volumes.<br>
Gluster can easily get 1GB/per node network throughput using disperse volumes.<br>
<br>
We use 26 disks/node without problems and planning to use 90 disk/node.<br>
<br>
I don&#39;t think you&#39;ll need SSD caching for sequential read heavy workload...<br>
<br>
Just test the workload with different disperse configurations to find<br>
the optimum for your workload.<br>
<div><div class="h5"><br>
<br>
On Fri, Feb 17, 2017 at 7:54 PM, Jake Davis &lt;<a href="mailto:jake@imapenguin.com">jake@imapenguin.com</a>&gt; wrote:<br>
&gt; Greetings, I&#39;m trying to spec hardware for a proof of concept. I&#39;m hoping<br>
&gt; for a sanity check to see if I&#39;m asking the right questions and making the<br>
&gt; right assumptions.<br>
&gt; I don&#39;t have real numbers for expected workload, but for our main use case,<br>
&gt; we&#39;re likely talking a few hundred thousand files, read heavy, with average<br>
&gt; file size around 1 GB. Fairly parallel access pattern.<br>
&gt;<br>
&gt; I&#39;ve read elsewhere that the max recommended disk count for a RAID6 array is<br>
&gt; twelve. Is that per node, or per brick? i.e. if I have a number of 24 or 36<br>
&gt; disk arrays attached to a single node, would it make sense to divide the<br>
&gt; larger array into 2 or 3 bricks with 12 disk stripes, or do a want to limit<br>
&gt; the brick count to one per node in this case?<br>
&gt;<br>
&gt; For FUSE clients, assuming one 12 disk RAID6 brick per node, in general, how<br>
&gt; many nodes do I need in my cluster before I start meeting/exceeding the<br>
&gt; throughput of a direct attached raid via NFS mount?<br>
&gt;<br>
&gt; RAM; is it always a case of the more, the merrier? Or is there some rule of<br>
&gt; thumb for calculating return on investment there?<br>
&gt;<br>
&gt; Is there a scenario were adding a few SSD&#39;s to a node can increase the<br>
&gt; performance of a spinning disk brick by acting as a read cache or some such?<br>
&gt; Assuming non-ZFS.<br>
&gt;<br>
&gt; I&#39;ve read that for highly parallel access, it might make more sense to use<br>
&gt; JBOD with one brick per disk. Is that advice file size dependent? And What<br>
&gt; question do I need to ask myself to determine how many of these single disk<br>
&gt; bricks I want per-node?<br>
&gt;<br>
&gt; Many thanks!<br>
&gt; -Jake<br>
&gt;<br>
&gt;<br>
</div></div>&gt; ______________________________<wbr>_________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
</blockquote></div><br></div>