Oficially,<div id="yMail_cursorElementTracker_1630357985630"><br></div><div id="yMail_cursorElementTracker_1630357985857">The supported dispersed options are:</div><div id="yMail_cursorElementTracker_1630358114497"><br></div><div id="yMail_cursorElementTracker_1630358114702"><ul style="margin-top: 0px; margin-bottom: 1rem; color: rgb(37, 37, 37); font-family: "Red Hat Text", RedHatText, "Helvetica Neue", Arial, sans-serif; font-size: 16px; background-color: rgb(255, 255, 255);"><li class="listitem" style="margin-bottom: 1em;"><div class="para" style="margin-bottom: 0px;">6 bricks with redundancy level 2 (4 + 2)</div></li><li class="listitem" style="margin-bottom: 1em;"><div class="para" style="margin-bottom: 0px;">10 bricks with redundancy level 2 (8 + 2)</div></li><li class="listitem" style="margin-bottom: 1em;"><div class="para" style="margin-bottom: 0px;">11 bricks with redundancy level 3 (8 + 3)</div></li><li class="listitem" style="margin-bottom: 1em;"><div class="para" style="margin-bottom: 0px;">12 bricks with redundancy level 4 (8 + 4)</div></li><li class="listitem" style="margin-bottom: 1em;"><div class="para" style="margin-bottom: 0px;" id="yMail_cursorElementTracker_1630358117440">20 bricks with redundancy level 4 (16 + 4)</div></li></ul><div><font color="#252525" face="Red Hat Text, RedHatText, Helvetica Neue, Arial, sans-serif" id="yMail_cursorElementTracker_1630358119386">You can put 3 nodes, each with 2 bricks -> one node failure is the maximum you can take.</font></div><div><font color="#252525" face="Red Hat Text, RedHatText, Helvetica Neue, Arial, sans-serif" id="yMail_cursorElementTracker_1630358156052">Later you can add another 3 hosts and so on.</font></div><div><font color="#252525" face="Red Hat Text, RedHatText, Helvetica Neue, Arial, sans-serif" id="yMail_cursorElementTracker_1630358186840"><br></font></div><div><font color="#252525" face="Red Hat Text, RedHatText, Helvetica Neue, Arial, sans-serif" id="yMail_cursorElementTracker_1630358187090"><br></font></div><div><font color="#252525" face="Red Hat Text, RedHatText, Helvetica Neue, Arial, sans-serif" id="yMail_cursorElementTracker_1630358187304">Best Regards,</font></div><div><font color="#252525" face="Red Hat Text, RedHatText, Helvetica Neue, Arial, sans-serif" id="yMail_cursorElementTracker_1630358191286">Strahil Nikolov</font></div><br><div id="ymail_android_signature"><a id="ymail_android_signature_link" href="https://go.onelink.me/107872968?pid=InProduct&c=Global_Internal_YGrowth_AndroidEmailSig__AndroidUsers&af_wl=ym&af_sub1=Internal&af_sub2=Global_YGrowth&af_sub3=EmailSignature">Sent from Yahoo Mail on Android</a></div> <br> <blockquote style="margin: 0 0 20px 0;"> <div style="font-family:Roboto, sans-serif; color:#6D00F6;"> <div>On Mon, Aug 30, 2021 at 23:21, Taste-Of-IT</div><div><kontakt@taste-of-it.de> wrote:</div> </div> <div style="padding: 10px 0 0 20px; margin: 10px 0 0 0; border-left: 1px solid #6D00F6;"> Hi all,<br><br>i have a 3 node virtual environment and i want to use a dispersed vol as central storage. My questions is, what is the best way to considere later expansion of the storage and how to set it up. I see these options:<br><br>1) use 3 gluster server with each one disk, upgrade by adding more server with one disk in same size<br>2) use 3 gluster server with  each one disk in lvm, upgrade by adding more disk and epand the lvm and maybe the vol too<br>3) use 3 gluster server with each disks in raid0 or 5 or 6 or 10, upgrade by adding disk on each server and grow the raid and maybe the vol too<br><br>Any ideas about that?<br><br>:)thx<br>________<br><br><br><br>Community Meeting Calendar:<br><br>Schedule -<br>Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>Bridge: <a href="https://meet.google.com/cpu-eiue-hvk" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br>Gluster-users mailing list<br><a ymailto="mailto:Gluster-users@gluster.org" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br><a href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br> </div> </blockquote></div>