<div dir="ltr">Hi Andreas,<br>None of the nodes or glusterfs processes on the node are down. When I have multiple client VM's spawned at the same time, on some of them it mounts correctly with the complete expected size but on few we face the mentioned issue.</div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Tue, Jan 28, 2025 at 8:09 PM Andreas Schwibbe <<a href="mailto:a.schwibbe@gmx.net">a.schwibbe@gmx.net</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div>Hey Shreyansh,</div><div><br></div><div>is this eventually happening if one node is going down/gluster service restart while the client has the volume mounted?</div><div><br></div><div>I think I am experiencing something similar for my VM disks, when I restart a node/glusterd. I only can fix it by re-mounting the client.<br>I believe the change of brick-ports of the newley restarted node/service is not being populated to the client, but all other nodes, thus the nodes don't show any problems and the client keeps connected to the bricks it knows.<br></div><div><br></div><div>A.</div><div><br></div><div>Am Dienstag, dem 28.01.2025 um 19:59 +0530 schrieb Shreyansh Shah:</div><blockquote type="cite" style="margin:0px 0px 0px 0.8ex;border-left:2px solid rgb(114,159,207);padding-left:1ex"><div dir="ltr"><div>Hi,<br>We are facing a weird scenario where on the clients the glusterfs volume mounts successfully but the size on the client is less than the total volume size. A few bricks are missing and hence the size as seen on the client is incorrect and we face issues of missing files. This happens randomly and we are unable to reproduce it. The gluster volume status shows all bricks up and running.<br>We are running distributed glusterfs version 9.3 with 13 nodes having 50 bricks divided amongst them. We are mounting it on the client with the below entry in fstab<br>"10.132.2.101:/datavol /data glusterfs ro,_netdev 0 0" where 10.132.2.101 is one of the nodes and datavol is the volume name.</div><div><br>Any help would be appreciated. In the client glusterfs log we see the below prints in case these help to figure out the issue. <br><br><blockquote type="cite" style="margin:0px 0px 0px 0.8ex;border-left:2px solid rgb(114,159,207);padding-left:1ex"><div>[2025-01-28 11:00:11.404092 +0000] W [MSGID: 109222] [dht-selfheal.c:2024:dht_selfheal_directory] 0-datavol-dht: Directory selfheal failed [{path=/}, {subvol-down=1}, {Not-fixing}, {gfid=}]<br> [2025-01-28 11:00:11.405029 +0000] W [dict.c:1532:dict_get_with_ref] (-->/usr/lib64/glusterfs/9.3/xlator/cluster/distribute.so(+0x556ea) [0x7f63cdf176ea] -->/lib64/libglusterfs.so.0(dict_get_uint32+0x3f) [0x7f63<br>dd12ffaf] -->/lib64/libglusterfs.so.0(dict_get_with_ref+0x8e) [0x7f63dd12f29e] ) 0-dict: dict OR key (trusted.glusterfs.dht.commithash) is NULL [Invalid argument]<br>[2025-01-28 11:00:11.406595 +0000] I [MSGID: 109061] [dht-layout.c:641:dht_layout_normalize] 0-datavol-dht: Found anomalies [{path=/code}, {gfid=949ca970-0b14-4fed-af73-d9ea216905f1}, {holes=1}, {overlaps=0}]<br> [2025-01-28 11:00:11.406731 +0000] W [MSGID: 109222] [dht-selfheal.c:2024:dht_selfheal_directory] 0-datavol-dht: Directory selfheal failed [{path=/code}, {subvol-down=1}, {Not-fixing}, {gfid=949ca970-0b14-4fed-a<br>f73-d9ea216905f1}]<br> [2025-01-28 11:00:11.408356 +0000] W [dict.c:1532:dict_get_with_ref] (-->/usr/lib64/glusterfs/9.3/xlator/cluster/distribute.so(+0x556ea) [0x7f63cdf176ea] -->/lib64/libglusterfs.so.0(dict_get_uint32+0x3f) [0x7f63<br>dd12ffaf] -->/lib64/libglusterfs.so.0(dict_get_with_ref+0x8e) [0x7f63dd12f29e] ) 0-dict: dict OR key (trusted.glusterfs.dht.commithash) is NULL [Invalid argument]<br>[2025-01-28 11:00:11.409546 +0000] I [MSGID: 109061] [dht-layout.c:641:dht_layout_normalize] 0-datavol-dht: Found anomalies [{path=/code/summary}, {gfid=c96f0e78-dd0e-4c61-89a3-f94ca1b502c4}, {holes=1}, {overlap<br>s=0}]<br> [2025-01-28 11:00:11.409605 +0000] W [MSGID: 109222] [dht-selfheal.c:2024:dht_selfheal_directory] 0-datavol-dht: Directory selfheal failed [{path=/code/summary}, {subvol-down=1}, {Not-fixing}, {gfid=c96f0e78-dd0<br>e-4c61-89a3-f94ca1b502c4}]<br> [2025-01-28 11:00:28.910500 +0000] W [MSGID: 109222] [dht-selfheal.c:2024:dht_selfheal_directory] 0-datavol-dht: Directory selfheal failed [{path=/}, {subvol-down=1}, {Not-fixing}, {gfid=}]<br> [2025-01-28 11:00:28.911125 +0000] I [MSGID: 109061] [dht-layout.c:641:dht_layout_normalize] 0-datavol-dht: Found anomalies [{path=/}, {gfid=00000000-0000-0000-0000-000000000001}, {holes=1}, {overlaps=0}]<br> [2025-01-28 11:00:28.911167 +0000] W [MSGID: 109222] [dht-selfheal.c:2024:dht_selfheal_directory] 0-datavol-dht: Directory selfheal failed [{path=/}, {subvol-down=1}, {Not-fixing}, {gfid=}]<br> [2025-01-28 11:00:40.359587 +0000] W [MSGID: 109222] [dht-selfheal.c:2024:dht_selfheal_directory] 0-datavol-dht: Directory selfheal failed [{path=/}, {subvol-down=1}, {Not-fixing}, {gfid=}]<br> [2025-01-28 11:00:40.375728 +0000] W [MSGID: 109011] [dht-layout.c:148:dht_layout_search] 0-datavol-dht: Failed to get hashed subvolume [{hash-value=0x5877673a}]<br> [2025-01-28 11:00:40.377646 +0000] W [MSGID: 109011] [dht-layout.c:148:dht_layout_search] 0-datavol-dht: Failed to get hashed subvolume [{hash-value=0x5877673a}]<br> [2025-01-28 11:00:40.428513 +0000] W [MSGID: 109011] [dht-layout.c:148:dht_layout_search] 0-datavol-dht: Failed to get hashed subvolume [{hash-value=0x599f6a37}]</div><br></blockquote> <br><br></div><span class="gmail_signature_prefix">-- </span><br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div dir="ltr"><div dir="ltr"><font face="arial, helvetica, sans-serif">Regards,<br>Shreyansh Shah</font><br><div style="margin:0in 0in 0.0001pt"><font><font color="#0b5394" style="font-weight:bold">Alpha</font><font color="#666666" style="font-weight:bold">Grep</font><font color="#000000"><b> Securities Pvt. Ltd. </b><br></font></font></div></div></div></div></div></div><div>________<br></div><div><br></div><div><br></div><div><br></div><div>Community Meeting Calendar:<br></div><div><br></div><div>Schedule -<br></div><div>Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br></div><div>Bridge: <a href="https://meet.google.com/cpu-eiue-hvk" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br></div><div>Gluster-users mailing list<br></div><div><a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br></div><div><a href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br></div></blockquote><div><br></div><div><span></span></div></div>
</blockquote></div><div><br clear="all"></div><div><br></div><span class="gmail_signature_prefix">-- </span><br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div dir="ltr"><div dir="ltr"><font face="arial, helvetica, sans-serif">Regards,<br>Shreyansh Shah</font><br><div style="margin:0in 0in 0.0001pt"><font><font color="#0b5394" style="font-weight:bold">Alpha</font><font color="#666666" style="font-weight:bold">Grep</font><font color="#000000"><b> Securities Pvt. Ltd.</b><br></font></font></div></div></div></div></div>