Actually,<div><br></div><div>pure NVME-based volume will be waste of money. Gluster excells when you have more servers and clients to consume that data.</div><div><br></div><div>I would choose  LVM cache (NVMEs) + HW RAID10 of SAS 15K disks to cope with the load. At least if you decide to go with more disks for the raids, use several  (not the built-in ones) controllers.<br></div><div><br></div><div>@Martin,</div><div><br></div><div>in order to get a more reliable setup, you will have to either get more servers and switch to distributed-replicated volume(s) or consider getting server hardware.</div><div>Dispersed volumes require a lot of CPU computations and the Ryzens won't cope with the load.</div><div><br></div><div>Best Regards,</div><div>Strahil Nikolov <br> <br> <blockquote style="margin: 0 0 20px 0;"> <div style="font-family:Roboto, sans-serif; color:#6D00F6;"> <div>On Thu, Mar 23, 2023 at 12:16, Hu Bert</div><div><revirii@googlemail.com> wrote:</div> </div> <div style="padding: 10px 0 0 20px; margin: 10px 0 0 0; border-left: 1px solid #6D00F6;"> Hi,<br clear="none"><br clear="none">Am Di., 21. März 2023 um 23:36 Uhr schrieb Martin Bähr<br clear="none"><mbaehr+gluster@realss.com>:<br clear="none">> the primary data is photos. we get an average of 50000 new files per<br clear="none">> day, with a peak if 7 to 8 times as much during christmas.<br clear="none">><br clear="none">> gluster has always been able to keep up with that, only when raid resync<br clear="none">> or checks happen the server load sometimes increases to cause issues.<br clear="none"><br clear="none">Interesting, we have a similar workload: hundreds of millions of<br clear="none">images, small files, and especially on weekends with high traffic the<br clear="none">load+iowait is really heavy. Or if a hdd fails, or during a raid<div class="yqt1214993479" id="yqtfd02178"><br clear="none">check.</div><br clear="none"><br clear="none">our hardware:<br clear="none">10x 10TB hdds -> 5x raid1, each raid1 is a brick, replicate 3 setup.<br clear="none">About 40TB of data.<br clear="none"><br clear="none">Well, the bricks are bigger than recommended... Sooner or later we<br clear="none">will have to migrate that stuff, and use nvme for that, either 3.5TB<br clear="none">or bigger ones. Those should be faster... *fingerscrossed*<br clear="none"><br clear="none"><br clear="none">regards,<br clear="none">Hubert<br clear="none">________<br clear="none"><br clear="none"><br clear="none"><br clear="none">Community Meeting Calendar:<br clear="none"><br clear="none">Schedule -<br clear="none">Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br clear="none">Bridge: <a shape="rect" href="https://meet.google.com/cpu-eiue-hvk" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br clear="none">Gluster-users mailing list<br clear="none"><a shape="rect" ymailto="mailto:Gluster-users@gluster.org" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br clear="none"><a shape="rect" href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><div class="yqt1214993479" id="yqtfd55821"><br clear="none"></div> </div> </blockquote></div>