<div dir="ltr">The issue is not with glusterd restart. We need to reproduce from beginning and add-bricks to check df -h values.<div><br></div><div>I suggest not to try on the production environment. if you have any other machines, please let me know.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 29, 2020 at 1:37 PM Petr Certik &lt;<a href="mailto:petr@certik.cz">petr@certik.cz</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">If you mean the issue during node restart, then yes, I think I could<br>
reproduce that with a custom build. It&#39;s a production system, though,<br>
so I&#39;ll need to be extremely careful.<br>
<br>
We&#39;re using debian glusterfs-server 7.3-1 amd64, can you provide a<br>
custom glusterd binary based off of that version?<br>
<br>
Cheers,<br>
Petr<br>
<br>
On Fri, May 29, 2020 at 9:09 AM Sanju Rakonde &lt;<a href="mailto:srakonde@redhat.com" target="_blank">srakonde@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; Surprising! Will you be able to reproduce the issue and share the logs if I provide a custom build with more logs?<br>
&gt;<br>
&gt; On Thu, May 28, 2020 at 1:35 PM Petr Certik &lt;<a href="mailto:petr@certik.cz" target="_blank">petr@certik.cz</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Thanks for your help! Much appreciated.<br>
&gt;&gt;<br>
&gt;&gt; The fsid is the same for all bricks:<br>
&gt;&gt;<br>
&gt;&gt; imagegluster1:<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster1:-data2-brick:brick-fsid=2065<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster1:-data-brick:brick-fsid=2065<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster2:-data2-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster2:-data-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster3:-data2-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster3:-data-brick:brick-fsid=0<br>
&gt;&gt;<br>
&gt;&gt; imagegluster2:<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster1:-data2-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster1:-data-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster2:-data2-brick:brick-fsid=2065<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster2:-data-brick:brick-fsid=2065<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster3:-data2-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster3:-data-brick:brick-fsid=0<br>
&gt;&gt;<br>
&gt;&gt; imagegluster3:<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster1:-data2-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster1:-data-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster2:-data2-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster2:-data-brick:brick-fsid=0<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster3:-data2-brick:brick-fsid=2065<br>
&gt;&gt; /var/lib/glusterd/vols/gv0/bricks/imagegluster3:-data-brick:brick-fsid=2065<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; I already did try restarting the glusterd nodes with no effect, but<br>
&gt;&gt; that was before the upgrades of client versions.<br>
&gt;&gt;<br>
&gt;&gt; Running the &quot;volume set&quot; command did not seem to work either, the<br>
&gt;&gt; shared-brick-counts are still the same (2).<br>
&gt;&gt;<br>
&gt;&gt; However, when restarting a node, I do get an error and a few warnings<br>
&gt;&gt; in the log: <a href="https://pastebin.com/tqq1FCwZ" rel="noreferrer" target="_blank">https://pastebin.com/tqq1FCwZ</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Wed, May 27, 2020 at 3:14 PM Sanju Rakonde &lt;<a href="mailto:srakonde@redhat.com" target="_blank">srakonde@redhat.com</a>&gt; wrote:<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; The shared-brick-count value indicates the number of bricks sharing a file-system. In your case, it should be one, as all the bricks are from different mount points. Can you please share the values of brick-fsid?<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; grep &quot;brick-fsid&quot; /var/lib/glusterd/vols/&lt;volname&gt;/bricks/<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; I tried reproducing this issue in fedora vm&#39;s but couldn&#39;t hit this. we are seeing this issue on and off but are unable to reproduce in-house. If you see any error messages in glusterd.log please share the log too.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Work-around to come out from this situation:<br>
&gt;&gt; &gt; 1. Restarting the glusterd service on all nodes:<br>
&gt;&gt; &gt; # systemctl restart glusterd<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; 2. Run set volume command to update vol file:<br>
&gt;&gt; &gt; # gluster v set &lt;VOLNAME&gt; min-free-disk 11%<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; On Wed, May 27, 2020 at 5:24 PM Petr Certik &lt;<a href="mailto:petr@certik.cz" target="_blank">petr@certik.cz</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; As far as I remember, there was no version update on the server. It<br>
&gt;&gt; &gt;&gt; was definitely installed as version 7.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Shared bricks:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Server 1:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster1.data2-brick.vol:<br>
&gt;&gt; &gt;&gt; option shared-brick-count 2<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster1.data-brick.vol:    option<br>
&gt;&gt; &gt;&gt; shared-brick-count 2<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster2.data2-brick.vol:<br>
&gt;&gt; &gt;&gt; option shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster2.data-brick.vol:    option<br>
&gt;&gt; &gt;&gt; shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster3.data2-brick.vol:<br>
&gt;&gt; &gt;&gt; option shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster3.data-brick.vol:    option<br>
&gt;&gt; &gt;&gt; shared-brick-count 0<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Server 2:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster1.data2-brick.vol:<br>
&gt;&gt; &gt;&gt; option shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster1.data-brick.vol:    option<br>
&gt;&gt; &gt;&gt; shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster2.data2-brick.vol:<br>
&gt;&gt; &gt;&gt; option shared-brick-count 2<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster2.data-brick.vol:    option<br>
&gt;&gt; &gt;&gt; shared-brick-count 2<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster3.data2-brick.vol:<br>
&gt;&gt; &gt;&gt; option shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster3.data-brick.vol:    option<br>
&gt;&gt; &gt;&gt; shared-brick-count 0<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Server 3:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster1.data2-brick.vol:<br>
&gt;&gt; &gt;&gt; option shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster1.data-brick.vol:    option<br>
&gt;&gt; &gt;&gt; shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster2.data2-brick.vol:<br>
&gt;&gt; &gt;&gt; option shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster2.data-brick.vol:    option<br>
&gt;&gt; &gt;&gt; shared-brick-count 0<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster3.data2-brick.vol:<br>
&gt;&gt; &gt;&gt; option shared-brick-count 2<br>
&gt;&gt; &gt;&gt; /var/lib/glusterd/vols/gv0/gv0.imagegluster3.data-brick.vol:    option<br>
&gt;&gt; &gt;&gt; shared-brick-count 2<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; On Wed, May 27, 2020 at 1:36 PM Sanju Rakonde &lt;<a href="mailto:srakonde@redhat.com" target="_blank">srakonde@redhat.com</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; Hi Petr,<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; what was the server version before upgrading to 7.2?<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; Can you please share the shared-brick-count values from brick volfiles from all the nodes?<br>
&gt;&gt; &gt;&gt; &gt; grep shared-brick-count /var/lib/glusterd/vols/&lt;volume_name&gt;/*<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; On Wed, May 27, 2020 at 2:31 PM Petr Certik &lt;<a href="mailto:petr@certik.cz" target="_blank">petr@certik.cz</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Hi everyone,<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; we&#39;ve been running a replicated volume for a while, with three ~1 TB<br>
&gt;&gt; &gt;&gt; &gt;&gt; bricks. Recently we&#39;ve added three more same-sized bricks, making it a<br>
&gt;&gt; &gt;&gt; &gt;&gt; 2 x 3 distributed replicated volume. However, even after rebalance,<br>
&gt;&gt; &gt;&gt; &gt;&gt; the `df` command on a client shows the correct used/size percentage,<br>
&gt;&gt; &gt;&gt; &gt;&gt; but wrong absolute sizes. The size still shows up as ~1 TB while in<br>
&gt;&gt; &gt;&gt; &gt;&gt; reality it should be around 2 TB, and both &quot;used&quot; and &quot;available&quot;<br>
&gt;&gt; &gt;&gt; &gt;&gt; reported sizes are about half of what they should be. The clients were<br>
&gt;&gt; &gt;&gt; &gt;&gt; an old version (5.5), but even after upgrade to 7.2 and remount, the<br>
&gt;&gt; &gt;&gt; &gt;&gt; reported sizes are still wrong. There are no heal entries. What can I<br>
&gt;&gt; &gt;&gt; &gt;&gt; do to fix this?<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; OS: debian buster everywhere<br>
&gt;&gt; &gt;&gt; &gt;&gt; Server version: 7.3-1, opversion: 70200<br>
&gt;&gt; &gt;&gt; &gt;&gt; Client versions: 5.5-3, 7.6-1, opversions: 50400, 70200<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; root@imagegluster1:~# gluster volume info gv0<br>
&gt;&gt; &gt;&gt; &gt;&gt; Volume Name: gv0<br>
&gt;&gt; &gt;&gt; &gt;&gt; Type: Distributed-Replicate<br>
&gt;&gt; &gt;&gt; &gt;&gt; Volume ID: 5505d350-9b61-4056-9054-de9dfb58eab7<br>
&gt;&gt; &gt;&gt; &gt;&gt; Status: Started<br>
&gt;&gt; &gt;&gt; &gt;&gt; Snapshot Count: 0<br>
&gt;&gt; &gt;&gt; &gt;&gt; Number of Bricks: 2 x 3 = 6<br>
&gt;&gt; &gt;&gt; &gt;&gt; Transport-type: tcp<br>
&gt;&gt; &gt;&gt; &gt;&gt; Bricks:<br>
&gt;&gt; &gt;&gt; &gt;&gt; Brick1: imagegluster1:/data/brick<br>
&gt;&gt; &gt;&gt; &gt;&gt; Brick2: imagegluster2:/data/brick<br>
&gt;&gt; &gt;&gt; &gt;&gt; Brick3: imagegluster3:/data/brick<br>
&gt;&gt; &gt;&gt; &gt;&gt; Brick4: imagegluster1:/data2/brick<br>
&gt;&gt; &gt;&gt; &gt;&gt; Brick5: imagegluster2:/data2/brick<br>
&gt;&gt; &gt;&gt; &gt;&gt; Brick6: imagegluster3:/data2/brick<br>
&gt;&gt; &gt;&gt; &gt;&gt; Options Reconfigured:<br>
&gt;&gt; &gt;&gt; &gt;&gt; features.cache-invalidation: on<br>
&gt;&gt; &gt;&gt; &gt;&gt; transport.address-family: inet<br>
&gt;&gt; &gt;&gt; &gt;&gt; storage.fips-mode-rchecksum: on<br>
&gt;&gt; &gt;&gt; &gt;&gt; nfs.disable: on<br>
&gt;&gt; &gt;&gt; &gt;&gt; performance.client-io-threads: off<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; root@imagegluster1:~# df -h<br>
&gt;&gt; &gt;&gt; &gt;&gt; Filesystem      Size  Used Avail Use% Mounted on<br>
&gt;&gt; &gt;&gt; &gt;&gt; ...<br>
&gt;&gt; &gt;&gt; &gt;&gt; /dev/sdb1       894G  470G  425G  53% /data2<br>
&gt;&gt; &gt;&gt; &gt;&gt; /dev/sdc1       894G  469G  426G  53% /data<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; root@any-of-the-clients:~# df -h<br>
&gt;&gt; &gt;&gt; &gt;&gt; Filesystem         Size  Used Avail Use% Mounted on<br>
&gt;&gt; &gt;&gt; &gt;&gt; ...<br>
&gt;&gt; &gt;&gt; &gt;&gt; imagegluster:/gv0  894G  478G  416G  54% /mnt/gluster<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Let me know if there&#39;s any other info I can provide about our setup.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt;&gt; Petr Certik<br>
&gt;&gt; &gt;&gt; &gt;&gt; ________<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Community Meeting Calendar:<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Schedule -<br>
&gt;&gt; &gt;&gt; &gt;&gt; Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>
&gt;&gt; &gt;&gt; &gt;&gt; Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Gluster-users mailing list<br>
&gt;&gt; &gt;&gt; &gt;&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt; &gt;&gt; &gt; Thanks,<br>
&gt;&gt; &gt;&gt; &gt; Sanju<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; --<br>
&gt;&gt; &gt; Thanks,<br>
&gt;&gt; &gt; Sanju<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Thanks,<br>
&gt; Sanju<br>
<br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div>Thanks,<br></div>Sanju<br></div></div>