<html><head><meta http-equiv="content-type" content="text/html; charset=utf-8"></head><body dir="auto">Hi,<div><br></div><div>I‘m using Proxmox with GlusterFs and qcow2 since some years now without bigger issues. </div><div><br></div><div>The only thing I needed to tweak was the mounting because else it had issues on reboot. You need to turn off the <span style="font-family: Menlo-Regular; font-size: 13px;">glusterfssharedstorage.service else it is uncounted too early on node shutdown which might corrupt data!</span></div><div><span style="font-family: Menlo-Regular; font-size: 13px;"><br></span></div><div><span style="font-family: Menlo-Regular; font-size: 13px;">Else do it should use the overt settings and sharding because else he always needs to check whole vom files which gets an issue when they get bigger. Meaning: </span><span style="font-family: ".SFUI-Regular"; font-size: 12px;">"gluster volume set <VOLNAME> group virt" (but remove all data from storage before doing that and copy data back on it afterwards. </span></div><div><br><div dir="ltr">Ingo F</div><div dir="ltr"><br><blockquote type="cite">Am 01.06.2023 um 23:05 schrieb Ewen Chan <alpha754293@hotmail.com>:<br><br></blockquote></div><blockquote type="cite"><div dir="ltr">

<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">



<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);" class="elementToProof">
Chris:</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);" class="elementToProof">
<br>
</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);" class="elementToProof">
Whilst I don't know what is the issue nor the root cause of your issue with using GlusterFS with Proxmox, but I am going to guess that you might already know that Proxmox "natively" supports Ceph, which the Wikipedia article for it says that it is a distributed
 object storage system.<br>
<br>
Maybe that might work better with Proxmox?<br>
<br>
Hope this helps.<br>
<br>
Sorry that I wasn't able to assist with the specific problem that you are facing.<br>
<br>
Thanks.<br>
<br>
Sincerely,<br>
Ewen<br>
</div>
<div id="appendonsend"></div>
<hr style="display:inline-block;width:98%" tabindex="-1">
<div id="divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" style="font-size:11pt" color="#000000"><b>From:</b> Gluster-users <gluster-users-bounces@gluster.org> on behalf of Christian Schoepplein <christian.schoepplein@linova.de><br>
<b>Sent:</b> June 1, 2023 11:42 AM<br>
<b>To:</b> gluster-users@gluster.org <gluster-users@gluster.org><br>
<b>Subject:</b> [Gluster-users] Using glusterfs for virtual machines with qcow2 images</font>
<div> </div>
</div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText">Hi,<br>
<br>
we'd like to use glusterfs for Proxmox and virtual machines with qcow2 <br>
disk images. We have a three node glusterfs setup with one volume and <br>
Proxmox is attached and VMs are created, but after some time, and I think <br>
after much i/o is going on for a VM, the data inside the virtual machine <br>
gets corrupted. When I copy files from or to our glusterfs <br>
directly everything is OK, I've checked the files with md5sum. So in general <br>
our glusterfs setup seems to be OK I think..., but with the VMs and the self <br>
growing qcow2 images there are problems. If I use raw images for the VMs <br>
tests look better, but I need to do more testing to be sure, the problem is <br>
a bit hard to reproduce :-(.<br>
<br>
I've also asked on a Proxmox mailinglist, but got no helpfull response so <br>
far :-(. So maybe you have any helping hint what might be wrong with our <br>
setup, what needs to be configured to use glusterfs as a storage backend for <br>
virtual machines with self growing disk images. e.g. Any helpfull tip would <br>
be great, because I am absolutely no glusterfs expert and also not a expert <br>
for virtualization and what has to be done to let all components play well <br>
together... Thanks for your support!<br>
<br>
Here some infos about our glusterfs setup, please let me know if you need <br>
more infos. We are using Ubuntu 22.04 as operating system:<br>
<br>
root@gluster1:~# gluster --version<br>
glusterfs 10.1<br>
Repository revision: git://git.gluster.org/glusterfs.git<br>
Copyright (c) 2006-2016 Red Hat, Inc. <<a href="https://www.gluster.org/">https://www.gluster.org/</a>><br>
GlusterFS comes with ABSOLUTELY NO WARRANTY.<br>
It is licensed to you under your choice of the GNU Lesser<br>
General Public License, version 3 or any later version (LGPLv3<br>
or later), or the GNU General Public License, version 2 (GPLv2),<br>
in all cases as published by the Free Software Foundation.<br>
root@gluster1:~#<br>
<br>
root@gluster1:~# gluster v status gfs_vms<br>
<br>
Status of volume: gfs_vms<br>
Gluster process                             TCP Port  RDMA Port  Online  Pid<br>
------------------------------------------------------------------------------<br>
Brick gluster1.linova.de:/glusterfs/sde1enc<br>
/brick                                      58448     0          Y       1062218<br>
Brick gluster2.linova.de:/glusterfs/sdc1enc<br>
/brick                                      50254     0          Y       20596<br>
Brick gluster3.linova.de:/glusterfs/sdc1enc<br>
/brick                                      52840     0          Y       1627513<br>
Brick gluster1.linova.de:/glusterfs/sdf1enc<br>
/brick                                      49832     0          Y       1062227<br>
Brick gluster2.linova.de:/glusterfs/sdd1enc<br>
/brick                                      56095     0          Y       20612<br>
Brick gluster3.linova.de:/glusterfs/sdd1enc<br>
/brick                                      51252     0          Y       1627521<br>
Brick gluster1.linova.de:/glusterfs/sdg1enc<br>
/brick                                      54991     0          Y       1062230<br>
Brick gluster2.linova.de:/glusterfs/sde1enc<br>
/brick                                      60812     0          Y       20628<br>
Brick gluster3.linova.de:/glusterfs/sde1enc<br>
/brick                                      59254     0          Y       1627522<br>
Self-heal Daemon on localhost               N/A       N/A        Y       1062249<br>
Bitrot Daemon on localhost                  N/A       N/A        Y       3591335<br>
Scrubber Daemon on localhost                N/A       N/A        Y       3591346<br>
Self-heal Daemon on gluster2.linova.de      N/A       N/A        Y       20645<br>
Bitrot Daemon on gluster2.linova.de         N/A       N/A        Y       987517<br>
Scrubber Daemon on gluster2.linova.de       N/A       N/A        Y       987588<br>
Self-heal Daemon on gluster3.linova.de      N/A       N/A        Y       1627568<br>
Bitrot Daemon on gluster3.linova.de         N/A       N/A        Y       1627543<br>
Scrubber Daemon on gluster3.linova.de       N/A       N/A        Y       1627554<br>
 <br>
Task Status of Volume gfs_vms<br>
------------------------------------------------------------------------------<br>
There are no active volume tasks<br>
 <br>
root@gluster1:~#<br>
<br>
root@gluster1:~# gluster v status gfs_vms detail<br>
<br>
Status of volume: gfs_vms<br>
------------------------------------------------------------------------------<br>
Brick                : Brick gluster1.linova.de:/glusterfs/sde1enc/brick<br>
TCP Port             : 58448               <br>
RDMA Port            : 0                   <br>
Online               : Y                   <br>
Pid                  : 1062218             <br>
File System          : xfs                 <br>
Device               : /dev/mapper/sde1enc <br>
Mount Options        : rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota<br>
Inode Size           : 512                 <br>
Disk Space Free      : 3.6TB               <br>
Total Disk Space     : 3.6TB               <br>
Inode Count          : 390700096           <br>
Free Inodes          : 390699660           <br>
------------------------------------------------------------------------------<br>
Brick                : Brick gluster2.linova.de:/glusterfs/sdc1enc/brick<br>
TCP Port             : 50254               <br>
RDMA Port            : 0                   <br>
Online               : Y                   <br>
Pid                  : 20596               <br>
File System          : xfs                 <br>
Device               : /dev/mapper/sdc1enc <br>
Mount Options        : rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota<br>
Inode Size           : 512                 <br>
Disk Space Free      : 3.6TB               <br>
Total Disk Space     : 3.6TB               <br>
Inode Count          : 390700096           <br>
Free Inodes          : 390699660           <br>
------------------------------------------------------------------------------<br>
Brick                : Brick gluster3.linova.de:/glusterfs/sdc1enc/brick<br>
TCP Port             : 52840               <br>
RDMA Port            : 0                   <br>
Online               : Y                   <br>
Pid                  : 1627513             <br>
File System          : xfs                 <br>
Device               : /dev/mapper/sdc1enc <br>
Mount Options        : rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota<br>
Inode Size           : 512                 <br>
Disk Space Free      : 3.6TB               <br>
Total Disk Space     : 3.6TB               <br>
Inode Count          : 390700096           <br>
Free Inodes          : 390699673           <br>
------------------------------------------------------------------------------<br>
Brick                : Brick gluster1.linova.de:/glusterfs/sdf1enc/brick<br>
TCP Port             : 49832               <br>
RDMA Port            : 0                   <br>
Online               : Y                   <br>
Pid                  : 1062227             <br>
File System          : xfs                 <br>
Device               : /dev/mapper/sdf1enc <br>
Mount Options        : rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota<br>
Inode Size           : 512                 <br>
Disk Space Free      : 3.4TB               <br>
Total Disk Space     : 3.6TB               <br>
Inode Count          : 390700096           <br>
Free Inodes          : 390699632           <br>
------------------------------------------------------------------------------<br>
Brick                : Brick gluster2.linova.de:/glusterfs/sdd1enc/brick<br>
TCP Port             : 56095               <br>
RDMA Port            : 0                   <br>
Online               : Y                   <br>
Pid                  : 20612               <br>
File System          : xfs                 <br>
Device               : /dev/mapper/sdd1enc <br>
Mount Options        : rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota<br>
Inode Size           : 512                 <br>
Disk Space Free      : 3.4TB               <br>
Total Disk Space     : 3.6TB               <br>
Inode Count          : 390700096           <br>
Free Inodes          : 390699632           <br>
------------------------------------------------------------------------------<br>
Brick                : Brick gluster3.linova.de:/glusterfs/sdd1enc/brick<br>
TCP Port             : 51252               <br>
RDMA Port            : 0                   <br>
Online               : Y                   <br>
Pid                  : 1627521             <br>
File System          : xfs                 <br>
Device               : /dev/mapper/sdd1enc <br>
Mount Options        : rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota<br>
Inode Size           : 512                 <br>
Disk Space Free      : 3.4TB               <br>
Total Disk Space     : 3.6TB               <br>
Inode Count          : 390700096           <br>
Free Inodes          : 390699658           <br>
------------------------------------------------------------------------------<br>
Brick                : Brick gluster1.linova.de:/glusterfs/sdg1enc/brick<br>
TCP Port             : 54991               <br>
RDMA Port            : 0                   <br>
Online               : Y                   <br>
Pid                  : 1062230             <br>
File System          : xfs                 <br>
Device               : /dev/mapper/sdg1enc <br>
Mount Options        : rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota<br>
Inode Size           : 512                 <br>
Disk Space Free      : 3.5TB               <br>
Total Disk Space     : 3.6TB               <br>
Inode Count          : 390700096           <br>
Free Inodes          : 390699629           <br>
------------------------------------------------------------------------------<br>
Brick                : Brick gluster2.linova.de:/glusterfs/sde1enc/brick<br>
TCP Port             : 60812               <br>
RDMA Port            : 0                   <br>
Online               : Y                   <br>
Pid                  : 20628               <br>
File System          : xfs                 <br>
Device               : /dev/mapper/sde1enc <br>
Mount Options        : rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota<br>
Inode Size           : 512                 <br>
Disk Space Free      : 3.5TB               <br>
Total Disk Space     : 3.6TB               <br>
Inode Count          : 390700096           <br>
Free Inodes          : 390699629           <br>
------------------------------------------------------------------------------<br>
Brick                : Brick gluster3.linova.de:/glusterfs/sde1enc/brick<br>
TCP Port             : 59254               <br>
RDMA Port            : 0                   <br>
Online               : Y                   <br>
Pid                  : 1627522             <br>
File System          : xfs                 <br>
Device               : /dev/mapper/sde1enc <br>
Mount Options        : rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota<br>
Inode Size           : 512                 <br>
Disk Space Free      : 3.5TB               <br>
Total Disk Space     : 3.6TB               <br>
Inode Count          : 390700096           <br>
Free Inodes          : 390699652           <br>
 <br>
root@gluster1:~#<br>
<br>
root@gluster1:~# gluster v info gfs_vms<br>
<br>
 <br>
Volume Name: gfs_vms<br>
Type: Distributed-Replicate<br>
Volume ID: c70e9806-0463-44ea-818f-a6c824cc5a05<br>
Status: Started<br>
Snapshot Count: 0<br>
Number of Bricks: 3 x 3 = 9<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: gluster1.linova.de:/glusterfs/sde1enc/brick<br>
Brick2: gluster2.linova.de:/glusterfs/sdc1enc/brick<br>
Brick3: gluster3.linova.de:/glusterfs/sdc1enc/brick<br>
Brick4: gluster1.linova.de:/glusterfs/sdf1enc/brick<br>
Brick5: gluster2.linova.de:/glusterfs/sdd1enc/brick<br>
Brick6: gluster3.linova.de:/glusterfs/sdd1enc/brick<br>
Brick7: gluster1.linova.de:/glusterfs/sdg1enc/brick<br>
Brick8: gluster2.linova.de:/glusterfs/sde1enc/brick<br>
Brick9: gluster3.linova.de:/glusterfs/sde1enc/brick<br>
Options Reconfigured:<br>
features.scrub: Active<br>
features.bitrot: on<br>
cluster.granular-entry-heal: on<br>
storage.fips-mode-rchecksum: on<br>
transport.address-family: inet<br>
nfs.disable: on<br>
performance.client-io-threads: off<br>
<br>
root@gluster1:~#<br>
<br>
root@gluster1:~# gluster volume heal gms_vms<br>
Launching heal operation to perform index self heal on volume gms_vms has <br>
been unsuccessful:<br>
Volume gms_vms does not exist<br>
root@gluster1:~# gluster volume heal gfs_vms<br>
Launching heal operation to perform index self heal on volume gfs_vms has <br>
been successful<br>
Use heal info commands to check status.<br>
root@gluster1:~# gluster volume heal gfs_vms info<br>
Brick gluster1.linova.de:/glusterfs/sde1enc/brick<br>
Status: Connected<br>
Number of entries: 0<br>
<br>
Brick gluster2.linova.de:/glusterfs/sdc1enc/brick<br>
Status: Connected<br>
Number of entries: 0<br>
<br>
Brick gluster3.linova.de:/glusterfs/sdc1enc/brick<br>
Status: Connected<br>
Number of entries: 0<br>
<br>
Brick gluster1.linova.de:/glusterfs/sdf1enc/brick<br>
Status: Connected<br>
Number of entries: 0<br>
<br>
Brick gluster2.linova.de:/glusterfs/sdd1enc/brick<br>
Status: Connected<br>
Number of entries: 0<br>
<br>
Brick gluster3.linova.de:/glusterfs/sdd1enc/brick<br>
Status: Connected<br>
Number of entries: 0<br>
<br>
Brick gluster1.linova.de:/glusterfs/sdg1enc/brick<br>
Status: Connected<br>
Number of entries: 0<br>
<br>
Brick gluster2.linova.de:/glusterfs/sde1enc/brick<br>
Status: Connected<br>
Number of entries: 0<br>
<br>
Brick gluster3.linova.de:/glusterfs/sde1enc/brick<br>
Status: Connected<br>
Number of entries: 0<br>
<br>
root@gluster1:~#<br>
<br>
This are the warnings and errors I've found in the logs on our three <br>
servers...<br>
<br>
* Warnings on gluster1.linova.de:<br>
<br>
glusterd.log:[2023-05-31 23:56:00.032233 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f9b8d19eedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2)
 [0x7f9b8d245ad2] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f9b8d244525] ) 0-management: Lock for gfs_vms held by a410159b-12db-4cf7-bad5-c5c817679d1b
<br>
glusterd.log:[2023-06-01 02:22:04.133256 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f9b8d19eedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2)
 [0x7f9b8d245ad2] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f9b8d244525] ) 0-management: Lock for gfs_vms held by a410159b-12db-4cf7-bad5-c5c817679d1b
<br>
glusterd.log:[2023-06-01 02:44:00.046086 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f9b8d19eedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2)
 [0x7f9b8d245ad2] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f9b8d244525] ) 0-management: Lock for gfs_vms held by a410159b-12db-4cf7-bad5-c5c817679d1b
<br>
glusterd.log:[2023-06-01 05:32:00.042698 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f9b8d19eedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2)
 [0x7f9b8d245ad2] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f9b8d244525] ) 0-management: Lock for gfs_vms held by a410159b-12db-4cf7-bad5-c5c817679d1b
<br>
glusterd.log:[2023-06-01 08:18:00.040890 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f9b8d19eedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2)
 [0x7f9b8d245ad2] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f9b8d244525] ) 0-management: Lock for gfs_vms held by a410159b-12db-4cf7-bad5-c5c817679d1b
<br>
glusterd.log:[2023-06-01 11:09:00.020843 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f9b8d19eedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2)
 [0x7f9b8d245ad2] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f9b8d244525] ) 0-management: Lock for gfs_vms held by a410159b-12db-4cf7-bad5-c5c817679d1b
<br>
glusterd.log:[2023-06-01 13:55:00.319414 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f9b8d19eedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2)
 [0x7f9b8d245ad2] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f9b8d244525] ) 0-management: Lock for gfs_vms held by a410159b-12db-4cf7-bad5-c5c817679d1b
<br>
<br>
* Errors on gluster1.linova.de:<br>
<br>
glusterd.log:[2023-05-31 23:56:00.032251 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
glusterd.log:[2023-06-01 02:22:04.133274 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
glusterd.log:[2023-06-01 02:44:00.046099 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
glusterd.log:[2023-06-01 05:32:00.042714 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
glusterd.log:[2023-06-01 08:18:00.040914 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
glusterd.log:[2023-06-01 11:09:00.020853 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
glusterd.log:[2023-06-01 13:21:57.752337 +0000] E [MSGID: 106525] [glusterd-op-sm.c:4248:glusterd_dict_set_volid] 0-management: Volume detail does not exist
<br>
glusterd.log:[2023-06-01 13:21:57.752363 +0000] E [MSGID: 106289] [glusterd-syncop.c:1947:gd_sync_task_begin] 0-management: Failed to build payload for operation 'Volume Status'
<br>
glusterd.log:[2023-06-01 13:55:00.319432 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
<br>
* Warnings on gluster2.linova.de:<br>
<br>
[2023-05-31 20:26:37.975658 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f4ec1b5bedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2) [0x7f4ec1c02ad2]
 -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f4ec1c01525] ) 0-management: Lock for gfs_vms held by a410159b-12db-4cf7-bad5-c5c817679d1b
<br>
<br>
* Errors on gluster2.linova.de:<br>
<br>
[2023-05-31 20:26:37.975831 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
<br>
* Warnings on gluster3.linova.de:<br>
<br>
[2023-05-31 22:26:44.245188 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f5f8ad5bedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2) [0x7f5f8ae02ad2]
 -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f5f8ae01525] ) 0-management: Lock for gfs_vms held by 4b0a8298-9284-4a24-8de0-f5c25aafb5c7
<br>
[2023-05-31 22:58:20.000849 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f5f8ad5bedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2) [0x7f5f8ae02ad2]
 -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f5f8ae01525] ) 0-management: Lock for gfs_vms held by 4b0a8298-9284-4a24-8de0-f5c25aafb5c7
<br>
[2023-06-01 01:26:19.990639 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f5f8ad5bedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2) [0x7f5f8ae02ad2]
 -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f5f8ae01525] ) 0-management: Lock for gfs_vms held by 4b0a8298-9284-4a24-8de0-f5c25aafb5c7
<br>
[2023-06-01 07:09:44.252654 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f5f8ad5bedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2) [0x7f5f8ae02ad2]
 -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f5f8ae01525] ) 0-management: Lock for gfs_vms held by 4b0a8298-9284-4a24-8de0-f5c25aafb5c7
<br>
[2023-06-01 07:36:49.803972 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f5f8ad5bedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2) [0x7f5f8ae02ad2]
 -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f5f8ae01525] ) 0-management: Lock for gfs_vms held by 4b0a8298-9284-4a24-8de0-f5c25aafb5c7
<br>
[2023-06-01 07:42:20.003401 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f5f8ad5bedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2) [0x7f5f8ae02ad2]
 -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f5f8ae01525] ) 0-management: Lock for gfs_vms held by 4b0a8298-9284-4a24-8de0-f5c25aafb5c7
<br>
[2023-06-01 08:43:55.561333 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f5f8ad5bedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2) [0x7f5f8ae02ad2]
 -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f5f8ae01525] ) 0-management: Lock for gfs_vms held by 7a63d6a0-feae-4349-b787-d0fc76b3db3a
<br>
[2023-06-01 13:07:04.152591 +0000] W [glusterd-locks.c:545:glusterd_mgmt_v3_lock] (-->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0x26edf) [0x7f5f8ad5bedf] -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcdad2) [0x7f5f8ae02ad2]
 -->/usr/lib/x86_64-linux-gnu/glusterfs/10.1/xlator/mgmt/glusterd.so(+0xcc525) [0x7f5f8ae01525] ) 0-management: Lock for gfs_vms held by a410159b-12db-4cf7-bad5-c5c817679d1b
<br>
<br>
* Errors on gluster3.linova.de:<br>
<br>
[2023-05-31 22:26:44.245214 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
[2023-05-31 22:58:20.000858 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
[2023-06-01 01:26:19.990648 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
[2023-06-01 07:09:44.252671 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
[2023-06-01 07:36:49.803986 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
[2023-06-01 07:42:20.003411 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
[2023-06-01 08:43:55.561349 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
[2023-06-01 13:07:04.152610 +0000] E [MSGID: 106118] [glusterd-syncop.c:1904:gd_sync_task_begin] 0-management: Unable to acquire lock for gfs_vms
<br>
<br>
Best regards and thanks again for any helpfull hint!<br>
<br>
  Chris<br>
________<br>
<br>
<br>
<br>
Community Meeting Calendar:<br>
<br>
Schedule -<br>
Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>
Bridge: <a href="https://meet.google.com/cpu-eiue-hvk">https://meet.google.com/cpu-eiue-hvk</a><br>
Gluster-users mailing list<br>
Gluster-users@gluster.org<br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
</div>
</span></font></div>


<span>________</span><br><span></span><br><span></span><br><span></span><br><span>Community Meeting Calendar:</span><br><span></span><br><span>Schedule -</span><br><span>Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC</span><br><span>Bridge: https://meet.google.com/cpu-eiue-hvk</span><br><span>Gluster-users mailing list</span><br><span>Gluster-users@gluster.org</span><br><span>https://lists.gluster.org/mailman/listinfo/gluster-users</span><br></div></blockquote></div></body></html>