<div dir="ltr">Guys, I have a working glusterfs volume. The servers were installed with Debian 11. Here is the volume information:<br><br>Volume Name: pool-gluster01<br>Type: Replicate<br>Volume ID: ab9c0268-0942-495f-acca-9de567581a40<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x (2 + 1) = 3<br>transport-type: tcp<br>Bricks:<br>Brick1:gluster01:/brick1/pool-gluster01<br>Brick2:gluster02:/brick1/pool-gluster01<br>Brick3: arbiter01:/brick1/pool-gluster01 (arbiter)<br>Options Reconfigured:<br>cluster.data-self-heal-algorithm: full<br>cluster.favorite-child-policy: mtime<br>network.ping-timeout: 2<br>cluster.quorum-count: 1<br>cluster.quorum-reads: false<br>cluster.self-heal-daemon: enable<br>cluster.heal-timeout: 5<br>cluster.granular-entry-heal: enable<br>storage.fips-mode-rchecksum: on<br>transport.address-family: inet<br>nfs.disable: on<br>performance.client-io-threads: off<br><br><br>The client accessing the volume was installed on a ubuntu VM that is running on a node of a proxmox cluster. When I migrate this VM to another cluster node the gluster volume stops working. If I go back to the source node it works again. Have you ever seen this happen?<br clear="all"><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div>--</div>AndrĂ© Probst</div><div dir="ltr">Consultor de Tecnologia<br><div>43 99617 8765</div></div></div></div></div></div></div></div></div>