Also, 'gluster pool list' .<div><br></div><div>Best Regards,</div><div>Strahil Nikolov<br> <br> <blockquote style="margin: 0 0 20px 0;"> <div style="font-family:Roboto, sans-serif; color:#6D00F6;"> <div>On Sat, Mar 5, 2022 at 23:22, Strahil Nikolov</div><div><hunter86_bg@yahoo.com> wrote:</div> </div> <div style="padding: 10px 0 0 20px; margin: 10px 0 0 0; border-left: 1px solid #6D00F6;"> <div id="yiv4975105795"><div>Hey Todd,<div><br clear="none"></div><div><br clear="none"></div><div>can you provide 'gluster volume info <VOLUME>' ?</div><div><br clear="none"></div><div>Best Regards,</div><div>Strahil Nikolov<br clear="none"> <br clear="none"> <div id="yiv4975105795yqt52308" class="yiv4975105795yqt7693821592"><blockquote style="margin:0 0 20px 0;"> <div style="font-family:Roboto, sans-serif;color:#6D00F6;"> <div>On Sat, Mar 5, 2022 at 18:17, Todd Pfaff</div><div><pfaff@rhpcs.mcmaster.ca> wrote:</div> </div> <div style="padding:10px 0 0 20px;margin:10px 0 0 0;border-left:1px solid #6D00F6;"> <div dir="ltr">I have a replica volume created as:<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">gluster volume create vol1 replica 4 \<br clear="none"></div><div dir="ltr">   host{1,2,3,4}:/mnt/gluster/brick1/data \<br clear="none"></div><div dir="ltr">   force<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">All hosts host{1,2,3,4} mount this volume as:<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">localhost:/vol1 /mnt/gluster/vol1 glusterfs defaults<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">Some other hosts are trusted peers but do not contribute bricks, and they <br clear="none"></div><div dir="ltr">also mount vol1 in the same way:<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">localhost:/vol1 /mnt/gluster/vol1 glusterfs defaults<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">All hosts run CentOS 7.9, and all are running glusterfs 9.4 or 9.5 from <br clear="none"></div><div dir="ltr">centos-release-gluster9-1.0-1.el7.noarch.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">All hosts run kvm guests that use qcow2 files for root filesystems that <br clear="none"></div><div dir="ltr">are stored on gluster volume vol1.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">This is all working well, as long as none of host{1,2,3,4} go offline.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">I want to take one of host{1,2,3,4} offline temporarily for maintenance. <br clear="none"></div><div dir="ltr">I'll refer to this as hostX.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">I understand that hostX will need to be healed when it comes back online.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">I would, of course, migrate guests from hostX to another host, in which <br clear="none"></div><div dir="ltr">case hostX would then only be participating as a gluster replica brick <br clear="none"></div><div dir="ltr">provider and serving gluster client requests.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">What I've experienced is that if I take one of host{1,2,3,4} offline, this <br clear="none"></div><div dir="ltr">can disrupt some of the VM guests on various other hosts such that their <br clear="none"></div><div dir="ltr">root filesystems go to read-only.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">What I'm looking for here are suggestions as to how to properly take one <br clear="none"></div><div dir="ltr">of host{1,2,3,4} offline to avoid such disruption or how to tune the <br clear="none"></div><div dir="ltr">libvirt kvm hosts and guests to be sufficiently resilient in the face of <br clear="none"></div><div dir="ltr">taking one gluster replica node offline.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">Thanks,<br clear="none"></div><div dir="ltr">Todd<br clear="none"></div><div dir="ltr">________<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">Community Meeting Calendar:<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">Schedule -<br clear="none"></div><div dir="ltr">Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br clear="none"></div><div dir="ltr">Bridge: <a rel="nofollow noopener noreferrer" shape="rect" target="_blank" href="https://meet.google.com/cpu-eiue-hvk">https://meet.google.com/cpu-eiue-hvk</a><br clear="none"></div><div dir="ltr">Gluster-users mailing list<br clear="none"></div><div dir="ltr"><a rel="nofollow noopener noreferrer" shape="rect" ymailto="mailto:Gluster-users@gluster.org" target="_blank" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br clear="none"></div><div dir="ltr"><a rel="nofollow noopener noreferrer" shape="rect" target="_blank" href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br clear="none"></div> </div> </blockquote></div></div></div></div> </div> </blockquote></div>