<html xmlns="http://www.w3.org/1999/xhtml" xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office"><head><!--[if gte mso 9]><xml><o:OfficeDocumentSettings><o:AllowPNG/><o:PixelsPerInch>96</o:PixelsPerInch></o:OfficeDocumentSettings></xml><![endif]--></head><body>
Hi Markus,<div><br></div><div>It looks quite well documented, but please use <a href="https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3.5/html/administration_guide/sect-replacing_hosts" target="_blank" class="enhancr2_03AC1A69-211C-4017-844F-2D6267343CE0">https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3.5/html/administration_guide/sect-replacing_hosts</a> as 3.5 is the latest version for RHGS.</div><div><br></div><div>If the OS disks are failing, I would have tried moving the data disks to the new machine and transferring the gluster files in /etc and /var/lib to the new node.</div><div><br></div><div>Any reason to reuse the FQDN ?</div><div>For me it was always much simpler to remove the brick, remove the node from TSP, add the new node and then add the brick and trigger full heal.</div><div><br></div><div>Best Regards,</div><div>Strahil Nikolov </div><div><div><br></div><br><br><br><div class="yahoo-signature"></div><br><p class="yahoo-quoted-begin" style="font-size: 15px; color: #715FFA; padding-top: 15px; margin-top: 0">On Wednesday, October 25, 2023, 1:30 PM, Marcus Pedersén <marcus.pedersen@slu.se> wrote:</p><blockquote class="iosymail">Hi all,<br>I have a problem with one of our gluster clusters.<br><br>This is the setup:<br>Volume Name: gds-common<br>Type: Distributed-Replicate<br>Volume ID: 42c9fa00-2d57-4a58-b5ae-c98c349cfcb6<br>Status: Started<br>Snapshot Count: 26<br>Number of Bricks: 1 x (2 + 1) = 3<br>Transport-type: tcp<br>Bricks:<br>Brick1: urd-gds-031:/urd-gds/gds-common<br>Brick2: urd-gds-032:/urd-gds/gds-common<br>Brick3: urd-gds-030:/urd-gds/gds-common (arbiter)<br>Options Reconfigured:<br>cluster.granular-entry-heal: on<br>storage.fips-mode-rchecksum: on<br>transport.address-family: inet<br>performance.client-io-threads: off<br>features.barrier: disable<br><br><br>The arbiter node has a faulty root disk but it is still<br>up and glusterd is still running.<br>I have a spare server equal to the arbiter node,<br>so my plan is to replace the arbiter host and<br>then I can calmly reinstall OS and fix the rest of<br>the configuration on the faulty host to be used<br>in another cluster.<br><br>I want to use the same hostname on the new host.<br>What is the correct commands and way to replace the aribter node.<br>I search online and found this:<br><a href="https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/sect-replacing_hosts" target="_blank">https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/sect-replacing_hosts</a><br>Can I use this guide to replace the host?<br><br>Please, give me advice on this.<br><br>Many thanks in advance!!<br><br>Best regards<br>Marcus<br><br>---<br>När du skickar e-post till SLU så innebär detta att SLU behandlar dina personuppgifter. För att läsa mer om hur detta går till, klicka här <<a href="https://www.slu.se/om-slu/kontakta-slu/personuppgifter/" target="_blank">https://www.slu.se/om-slu/kontakta-slu/personuppgifter/</a>><br>E-mailing SLU will result in SLU processing your personal data. For more information on how this is done, click here <<a href="https://www.slu.se/en/about-slu/contact-slu/personal-data/" target="_blank">https://www.slu.se/en/about-slu/contact-slu/personal-data/</a>><br>________<br><br><br><br>Community Meeting Calendar:<br><br>Schedule -<br>Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>Bridge: <a href="https://meet.google.com/cpu-eiue-hvk" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br>Gluster-users mailing list<br><a ymailto="mailto:Gluster-users@gluster.org" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br><a href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br><blockquote></blockquote></blockquote></div>
</body></html>