<div dir="ltr">Hi Petr,<div><br></div><div>what was the server version before upgrading to 7.2?</div><div><br></div><div>Can you please share the shared-brick-count values from brick volfiles from all the nodes?</div><div>grep shared-brick-count /var/lib/glusterd/vols/&lt;volume_name&gt;/*</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, May 27, 2020 at 2:31 PM Petr Certik &lt;<a href="mailto:petr@certik.cz">petr@certik.cz</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi everyone,<br>
<br>
we&#39;ve been running a replicated volume for a while, with three ~1 TB<br>
bricks. Recently we&#39;ve added three more same-sized bricks, making it a<br>
2 x 3 distributed replicated volume. However, even after rebalance,<br>
the `df` command on a client shows the correct used/size percentage,<br>
but wrong absolute sizes. The size still shows up as ~1 TB while in<br>
reality it should be around 2 TB, and both &quot;used&quot; and &quot;available&quot;<br>
reported sizes are about half of what they should be. The clients were<br>
an old version (5.5), but even after upgrade to 7.2 and remount, the<br>
reported sizes are still wrong. There are no heal entries. What can I<br>
do to fix this?<br>
<br>
OS: debian buster everywhere<br>
Server version: 7.3-1, opversion: 70200<br>
Client versions: 5.5-3, 7.6-1, opversions: 50400, 70200<br>
<br>
<br>
root@imagegluster1:~# gluster volume info gv0<br>
Volume Name: gv0<br>
Type: Distributed-Replicate<br>
Volume ID: 5505d350-9b61-4056-9054-de9dfb58eab7<br>
Status: Started<br>
Snapshot Count: 0<br>
Number of Bricks: 2 x 3 = 6<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: imagegluster1:/data/brick<br>
Brick2: imagegluster2:/data/brick<br>
Brick3: imagegluster3:/data/brick<br>
Brick4: imagegluster1:/data2/brick<br>
Brick5: imagegluster2:/data2/brick<br>
Brick6: imagegluster3:/data2/brick<br>
Options Reconfigured:<br>
features.cache-invalidation: on<br>
transport.address-family: inet<br>
storage.fips-mode-rchecksum: on<br>
nfs.disable: on<br>
performance.client-io-threads: off<br>
<br>
<br>
root@imagegluster1:~# df -h<br>
Filesystem      Size  Used Avail Use% Mounted on<br>
...<br>
/dev/sdb1       894G  470G  425G  53% /data2<br>
/dev/sdc1       894G  469G  426G  53% /data<br>
<br>
<br>
root@any-of-the-clients:~# df -h<br>
Filesystem         Size  Used Avail Use% Mounted on<br>
...<br>
imagegluster:/gv0  894G  478G  416G  54% /mnt/gluster<br>
<br>
<br>
Let me know if there&#39;s any other info I can provide about our setup.<br>
<br>
Cheers,<br>
Petr Certik<br>
________<br>
<br>
<br>
<br>
Community Meeting Calendar:<br>
<br>
Schedule -<br>
Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>
Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br>
<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div>Thanks,<br></div>Sanju<br></div></div>