<html><body><div style="font-family: times new roman, new york, times, serif; font-size: 12pt; color: #000000"><div>Hey Mauro,<br></div><div><br></div><div>How did it go? Were you able to expand volumes without any issues?</div><div>Just curious to know the approach you took and how smooth was it to <br></div><div>expand this volume.<br></div><div><br></div><div>---<br></div><div>Ashish<br></div><div><br></div><div><br></div><hr id="zwchr"><div style="color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><b>From: </b>"Mauro Tridici" &lt;mauro.tridici@cmcc.it&gt;<br><b>To: </b>"Ashish Pandey" &lt;aspandey@redhat.com&gt;<br><b>Cc: </b>"Gluster Users" &lt;gluster-users@gluster.org&gt;<br><b>Sent: </b>Friday, June 8, 2018 1:29:00 AM<br><b>Subject: </b>Re: [Gluster-users] Expanding a distributed disperse volume: some&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;questions about the action plan<br><div><br></div><div class="">Dear Ashish,</div><div class=""><br class=""></div><div class="">thank you very much for your support.</div><div class="">I think that I’m not able to change the volume configuration for the reason you mentioned at the end of your n.1 answer.</div><div class="">GNFS mount is a very good idea, thank you!!! I will use it in my action plan.</div><div class=""><br class=""></div><div class="">I’m very happy to have been helped by you (Ashish and Serkan).</div><div class="">Regards,</div><div class="">Mauro</div><div class=""><br class=""></div><div><blockquote class=""><div class="">Il giorno 07 giu 2018, alle ore 16:49, Ashish Pandey &lt;<a href="mailto:aspandey@redhat.com" class="" target="_blank">aspandey@redhat.com</a>&gt; ha scritto:</div><br class="Apple-interchange-newline"><div class=""><div class=""><div style="font-family: 'times new roman', 'new york', times, serif; font-size: 12pt;" class=""><div class="">Mauro,<br class=""></div><div class=""><br class=""></div><div class="">Your plan looks fine to me. However, I would like to add few points.<br class=""></div><div class=""><br class=""></div><div class="">1 - After adding 3 more nodes you will have overall 6 nodes. It would be better if you can have 1 brick on each server for any EC subvolume.<br class=""></div><div class="">&nbsp;&nbsp;&nbsp;&nbsp; For example: for 4+2, all 6 bricks should be on different nodes. This will help you to have better redundancy. For example even if 2 nodes go down, you will still have 4 good bricks.<br class=""></div><div class="">&nbsp;&nbsp;&nbsp;&nbsp; In your existing setup, if 2 nodes go down you will loose 4 bricks which will make the volume unusable.<br class=""></div><div class="">&nbsp;&nbsp;&nbsp;&nbsp; Although it would be tricky to do so, as you have older version on 3 nodes and newer on 3 nodes.<br class=""></div><div class=""><br class=""></div><div class="">2 - In your plan, if you can use gnfs mount, you could easily copy the data from one volume to other. In this case the client would be running on one of the server which would be same as the server version.<br class=""></div><div class=""><br class=""></div><div class="">3 - The plan you mentioned will also work. However, you have to have *older* client version on third machine on which you are going to mount both volumes.<br class=""></div><div class=""><br class=""></div><div class="">4 - The plan which Serkan mentioned is also a feasible plan specially if IO's are not going on. However, just keep the first point in your mind and see if you can reach to that setup.<br class=""></div><div class=""><br class=""></div><div class="">---<br class=""></div><div class="">Ashish<br class=""></div><div class=""><br class=""></div><div class=""><br class=""></div><div class=""><br class=""></div><div class=""><br class=""></div><div class=""><br class=""></div><hr id="zwchr" class=""><div style="font-weight: normal; font-style: normal; text-decoration: none; font-family: Helvetica, Arial, sans-serif; font-size: 12pt;" class=""><b class="">From: </b>"Serkan Çoban" &lt;<a href="mailto:cobanserkan@gmail.com" class="" target="_blank">cobanserkan@gmail.com</a>&gt;<br class=""><b class="">To: </b>"Mauro Tridici" &lt;<a href="mailto:mauro.tridici@cmcc.it" class="" target="_blank">mauro.tridici@cmcc.it</a>&gt;<br class=""><b class="">Cc: </b>"Gluster Users" &lt;<a href="mailto:gluster-users@gluster.org" class="" target="_blank">gluster-users@gluster.org</a>&gt;<br class=""><b class="">Sent: </b>Thursday, June 7, 2018 7:19:50 PM<br class=""><b class="">Subject: </b>Re: [Gluster-users] Expanding a distributed disperse volume: some questions about the action plan<br class=""><div class=""><br class=""></div>&gt;in order to copy the data from the old volume to the new one, I need a third machine that can mount both the volumes; it's possible? if yes, which gluster client version should I use/install on the "bridge" machine?<br class="">Yes it is possible, you need to install old client version to bridge<br class="">server, old clients can talk to new servers<br class=""><div class=""><br class=""></div>Why not just extend the old cluster &amp; rebalance and then upgrade to<br class="">latest version of glusterfs?<br class=""><div class=""><br class=""></div>On Thu, Jun 7, 2018 at 3:18 PM, Mauro Tridici &lt;<a href="mailto:mauro.tridici@cmcc.it" class="" target="_blank">mauro.tridici@cmcc.it</a>&gt; wrote:<br class="">&gt; Dear Users,<br class="">&gt;<br class="">&gt; just one year ago, we implemented a tier2 storage based on GlusterFS<br class="">&gt; v.3.10.5 and we can say that it works like a charm.<br class="">&gt; The GlusterFS volume has been created using 3 physical servers (each server<br class="">&gt; contains 12 disks, 1 brick per disk).<br class="">&gt;<br class="">&gt; Below, you can find some information about the gluster volume type<br class="">&gt;<br class="">&gt; Volume Name: tier2<br class="">&gt; Type: Distributed-Disperse<br class="">&gt; Volume ID: a28d88c5-3295-4e35-98d4-210b3af9358c<br class="">&gt; Status: Started<br class="">&gt; Snapshot Count: 0<br class="">&gt; Number of Bricks: 6 x (4 + 2) = 36<br class="">&gt; Transport-type: tcp<br class="">&gt;<br class="">&gt; Now, it's time to expand this volume so we bought 3 new servers similar to<br class="">&gt; the 3 existing servers. Since we would like to upgrade the Gluster version<br class="">&gt; to last available one, we would like to know if the following action plan is<br class="">&gt; correct and safe:<br class="">&gt;<br class="">&gt; 1) creation of a new gluster distributed disperse volume (6x(4+2)) using the<br class="">&gt; 3 new servers and the new gluster version;<br class="">&gt; 2) copy of all the data saved on the old gluster volume to the new one;<br class="">&gt; 3) complete erasure of three old servers operating system;<br class="">&gt; 4) installation of the last available version of the operating system and<br class="">&gt; glusterfs software stack on the three old servers;<br class="">&gt; 5) expansion of the volume (created at point nr.1) adding the new bricks<br class="">&gt; (created at point nr.4)<br class="">&gt;<br class="">&gt; If our action plan can be considered "validated", I have an other question:<br class="">&gt;<br class="">&gt; - in order to copy the data from the old volume to the new one, I need a<br class="">&gt; third machine that can mount both the volumes; it's possible? if yes, which<br class="">&gt; gluster client version should I use/install on the "bridge" machine?<br class="">&gt;<br class="">&gt; Thank you very much for your attention.<br class="">&gt; Regards,<br class="">&gt; Mauro<br class="">&gt;<br class="">&gt;<br class="">&gt; _______________________________________________<br class="">&gt; Gluster-users mailing list<br class="">&gt; <a href="mailto:Gluster-users@gluster.org" class="" target="_blank">Gluster-users@gluster.org</a><br class="">&gt; <a href="http://lists.gluster.org/mailman/listinfo/gluster-users" class="" target="_blank">http://lists.gluster.org/mailman/listinfo/gluster-users</a><br class="">_______________________________________________<br class="">Gluster-users mailing list<br class=""><a href="mailto:Gluster-users@gluster.org" class="" target="_blank">Gluster-users@gluster.org</a><br class="">http://lists.gluster.org/mailman/listinfo/gluster-users<br class=""></div><div class=""><br class=""></div></div></div></div></blockquote></div><div class=""><span class="Apple-style-span" style="border-collapse: separate; font-variant-ligatures: normal; font-variant-position: normal; font-variant-numeric: normal; font-variant-alternates: normal; font-variant-east-asian: normal; line-height: normal; border-spacing: 0px;"><span class="Apple-style-span" style="border-collapse: separate; color: rgb(0, 0, 0); font-family: Helvetica; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-border-horizontal-spacing: 0px; -webkit-border-vertical-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px;  "><div class=""><br class="Apple-interchange-newline"></div></span></span></div><br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>http://lists.gluster.org/mailman/listinfo/gluster-users</div><div><br></div></div></body></html>