Hey Todd,<div><br></div><div><br></div><div>can you provide 'gluster volume info <VOLUME>' ?</div><div><br></div><div>Best Regards,</div><div>Strahil Nikolov<br> <br> <blockquote style="margin: 0 0 20px 0;"> <div style="font-family:Roboto, sans-serif; color:#6D00F6;"> <div>On Sat, Mar 5, 2022 at 18:17, Todd Pfaff</div><div><pfaff@rhpcs.mcmaster.ca> wrote:</div> </div> <div style="padding: 10px 0 0 20px; margin: 10px 0 0 0; border-left: 1px solid #6D00F6;"> <div dir="ltr">I have a replica volume created as:<br></div><div dir="ltr"><br></div><div dir="ltr">gluster volume create vol1 replica 4 \<br></div><div dir="ltr">   host{1,2,3,4}:/mnt/gluster/brick1/data \<br></div><div dir="ltr">   force<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">All hosts host{1,2,3,4} mount this volume as:<br></div><div dir="ltr"><br></div><div dir="ltr">localhost:/vol1 /mnt/gluster/vol1 glusterfs defaults<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">Some other hosts are trusted peers but do not contribute bricks, and they <br></div><div dir="ltr">also mount vol1 in the same way:<br></div><div dir="ltr"><br></div><div dir="ltr">localhost:/vol1 /mnt/gluster/vol1 glusterfs defaults<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">All hosts run CentOS 7.9, and all are running glusterfs 9.4 or 9.5 from <br></div><div dir="ltr">centos-release-gluster9-1.0-1.el7.noarch.<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">All hosts run kvm guests that use qcow2 files for root filesystems that <br></div><div dir="ltr">are stored on gluster volume vol1.<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">This is all working well, as long as none of host{1,2,3,4} go offline.<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">I want to take one of host{1,2,3,4} offline temporarily for maintenance. <br></div><div dir="ltr">I'll refer to this as hostX.<br></div><div dir="ltr"><br></div><div dir="ltr">I understand that hostX will need to be healed when it comes back online.<br></div><div dir="ltr"><br></div><div dir="ltr">I would, of course, migrate guests from hostX to another host, in which <br></div><div dir="ltr">case hostX would then only be participating as a gluster replica brick <br></div><div dir="ltr">provider and serving gluster client requests.<br></div><div dir="ltr"><br></div><div dir="ltr">What I've experienced is that if I take one of host{1,2,3,4} offline, this <br></div><div dir="ltr">can disrupt some of the VM guests on various other hosts such that their <br></div><div dir="ltr">root filesystems go to read-only.<br></div><div dir="ltr"><br></div><div dir="ltr">What I'm looking for here are suggestions as to how to properly take one <br></div><div dir="ltr">of host{1,2,3,4} offline to avoid such disruption or how to tune the <br></div><div dir="ltr">libvirt kvm hosts and guests to be sufficiently resilient in the face of <br></div><div dir="ltr">taking one gluster replica node offline.<br></div><div dir="ltr"><br></div><div dir="ltr">Thanks,<br></div><div dir="ltr">Todd<br></div><div dir="ltr">________<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">Community Meeting Calendar:<br></div><div dir="ltr"><br></div><div dir="ltr">Schedule -<br></div><div dir="ltr">Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br></div><div dir="ltr">Bridge: <a href="https://meet.google.com/cpu-eiue-hvk" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br></div><div dir="ltr">Gluster-users mailing list<br></div><div dir="ltr"><a ymailto="mailto:Gluster-users@gluster.org" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br></div><div dir="ltr"><a href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br></div> </div> </blockquote></div>