<html><head></head><body><div class="ydpf9627347yahoo-style-wrap" style="font-family:courier new, courier, monaco, monospace, sans-serif;font-size:16px;"><div></div>
        <div dir="ltr" data-setdir="false">As it was mentioned, you might have to run rebalance on the other node - but it is better to wait this node is over.</div><div dir="ltr" data-setdir="false"><br></div><div dir="ltr" data-setdir="false">Best Regards,</div><div dir="ltr" data-setdir="false">Strahil Nikolov<br></div><div><br></div>
        
        </div><div id="ydpaf9aa8f9yahoo_quoted_8445600397" class="ydpaf9aa8f9yahoo_quoted">
            <div style="font-family:'Helvetica Neue', Helvetica, Arial, sans-serif;font-size:13px;color:#26282a;">
                
                <div>
                    В петък, 6 септември 2019 г., 15:29:20 ч. Гринуич+3, Herb Burnswell &lt;herbert.burnswell@gmail.com&gt; написа:
                </div>
                <div><br></div>
                <div><br></div>
                <div><div id="ydpaf9aa8f9yiv4170335582"><div><div dir="ltr"><div dir="ltr"><br clear="none"></div><br clear="none"><div class="ydpaf9aa8f9yiv4170335582gmail_quote"><div class="ydpaf9aa8f9yiv4170335582gmail_attr" dir="ltr">On Thu, Sep 5, 2019 at 9:56 PM Nithya Balachandran &lt;<a shape="rect" href="mailto:nbalacha@redhat.com" rel="nofollow" target="_blank">nbalacha@redhat.com</a>&gt; wrote:<br clear="none"></div><blockquote class="ydpaf9aa8f9yiv4170335582gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div dir="ltr"><div dir="ltr"><br clear="none"></div><br clear="none"><div class="ydpaf9aa8f9yiv4170335582gmail_quote"><div class="ydpaf9aa8f9yiv4170335582gmail_attr" dir="ltr">On Thu, 5 Sep 2019 at 02:41, Herb Burnswell &lt;<a shape="rect" href="mailto:herbert.burnswell@gmail.com" rel="nofollow" target="_blank">herbert.burnswell@gmail.com</a>&gt; wrote:<br clear="none"></div><blockquote class="ydpaf9aa8f9yiv4170335582gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div dir="ltr">Thanks for the replies.&nbsp; The rebalance is running and the brick percentages are not adjusting as expected:<div><br clear="none"></div><div># df -hP |grep data<br clear="none">/dev/mapper/gluster_vg-gluster_lv1_data &nbsp; 60T &nbsp; 49T &nbsp; 11T &nbsp;83% /gluster_bricks/data1<br clear="none">/dev/mapper/gluster_vg-gluster_lv2_data &nbsp; 60T &nbsp; 49T &nbsp; 11T &nbsp;83% /gluster_bricks/data2<br clear="none">/dev/mapper/gluster_vg-gluster_lv3_data &nbsp; 60T &nbsp;4.6T &nbsp; 55T &nbsp; 8% /gluster_bricks/data3<br clear="none">/dev/mapper/gluster_vg-gluster_lv4_data &nbsp; 60T &nbsp;4.6T &nbsp; 55T &nbsp; 8% /gluster_bricks/data4<br clear="none">/dev/mapper/gluster_vg-gluster_lv5_data &nbsp; 60T &nbsp;4.6T &nbsp; 55T &nbsp; 8% /gluster_bricks/data5<br clear="none">/dev/mapper/gluster_vg-gluster_lv6_data &nbsp; 60T &nbsp;4.6T &nbsp; 55T &nbsp; 8% /gluster_bricks/data6<br clear="none"></div><div><br clear="none"></div><div>At the current pace it looks like this will continue to run for another 5-6 days.</div><div><br clear="none"></div><div>I appreciate the guidance..</div><div><br clear="none"></div></div></blockquote><div><br clear="none"></div><div>What is the output of the rebalance status command?</div><div>Can you check if there are any errors in the rebalance logs on the node&nbsp; on which you see rebalance activity?</div><div>If there are a lot of small files on the volume, the rebalance is expected to take time.</div><div><br clear="none"></div><div>Regards,</div><div>Nithya</div></div></div></blockquote><div><br clear="none"></div><div>My apologies, that was a typo.&nbsp; I meant to say:</div><div><br clear="none"></div><div>"The rebalance is running and the brick percentages are NOW adjusting as expected"</div><div><br clear="none"></div><div>I did expect the rebalance to take several days.&nbsp; The rebalance log is not showing any errors.&nbsp; Status output:</div><div><br clear="none"></div><div># gluster vol rebalance tank status<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Node Rebalanced-files &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;size &nbsp; &nbsp; &nbsp; scanned &nbsp; &nbsp; &nbsp;failures &nbsp; &nbsp; &nbsp; skipped &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; status &nbsp;run time in h:m:s<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;--------- &nbsp; &nbsp; &nbsp;----------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp; &nbsp; &nbsp; &nbsp; ------------ &nbsp; &nbsp; --------------<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1251320 &nbsp; &nbsp; &nbsp; &nbsp;35.5TB &nbsp; &nbsp; &nbsp; 2079527 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;in progress &nbsp; &nbsp; &nbsp;139:9:46<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;serverB&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 7 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;completed &nbsp; &nbsp; &nbsp; 63:47:55<br clear="none">volume rebalance: tank: success<br clear="none"></div><div><br clear="none"></div><div>Thanks again for the guidance.</div><div class="ydpaf9aa8f9yiv4170335582yqt9107665967" id="ydpaf9aa8f9yiv4170335582yqtfd53963"><div><br clear="none"></div><div>HB</div><div><br clear="none"></div><div>&nbsp;</div><blockquote class="ydpaf9aa8f9yiv4170335582gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div dir="ltr"><div class="ydpaf9aa8f9yiv4170335582gmail_quote"><blockquote class="ydpaf9aa8f9yiv4170335582gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div dir="ltr"><div></div><div><br clear="none"></div></div><br clear="none"><div class="ydpaf9aa8f9yiv4170335582gmail_quote"><div class="ydpaf9aa8f9yiv4170335582gmail_attr" dir="ltr">On Mon, Sep 2, 2019 at 9:08 PM Nithya Balachandran &lt;<a shape="rect" href="mailto:nbalacha@redhat.com" rel="nofollow" target="_blank">nbalacha@redhat.com</a>&gt; wrote:<br clear="none"></div><blockquote class="ydpaf9aa8f9yiv4170335582gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div dir="ltr"><div dir="ltr"><br clear="none"></div><br clear="none"><div class="ydpaf9aa8f9yiv4170335582gmail_quote"><div class="ydpaf9aa8f9yiv4170335582gmail_attr" dir="ltr">On Sat, 31 Aug 2019 at 22:59, Herb Burnswell &lt;<a shape="rect" href="mailto:herbert.burnswell@gmail.com" rel="nofollow" target="_blank">herbert.burnswell@gmail.com</a>&gt; wrote:<br clear="none"></div><blockquote class="ydpaf9aa8f9yiv4170335582gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div dir="ltr">Thank you for the reply.<div><br clear="none"></div><div>I started a rebalance with force on serverA as suggested.&nbsp; Now I see 'activity' on that node:</div><div><br clear="none"></div><div># gluster vol rebalance tank status<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Node Rebalanced-files &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;size &nbsp; &nbsp; &nbsp; scanned &nbsp; &nbsp; &nbsp;failures &nbsp; &nbsp; &nbsp; skipped &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; status &nbsp;run time in h:m:s<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;--------- &nbsp; &nbsp; &nbsp;----------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp; &nbsp; &nbsp; &nbsp; ------------ &nbsp; &nbsp; --------------<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 6143 &nbsp; &nbsp; &nbsp; &nbsp; 6.1GB &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;9542 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;in progress &nbsp; &nbsp; &nbsp; &nbsp;0:4:5<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;serverB &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 7 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;in progress &nbsp; &nbsp; &nbsp; &nbsp;0:4:5<br clear="none">volume rebalance: tank: success<br clear="none"></div><div><br clear="none"></div><div>But I am not seeing any activity on serverB.&nbsp; Is this expected?&nbsp; Does the rebalance need to run on each node even though it says both nodes are 'in progress'?</div><div><br clear="none"></div></div></blockquote><div><br clear="none"></div><div>It looks like this is a replicate volume. If that is the case then yes, you are running an old version of Gluster for which this was the default behaviour.&nbsp;</div><div><br clear="none"></div><div>Regards,</div><div>Nithya</div><div><br clear="none"></div><blockquote class="ydpaf9aa8f9yiv4170335582gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div dir="ltr"><div></div><div>Thanks,</div><div><br clear="none"></div><div>HB</div></div><br clear="none"><div class="ydpaf9aa8f9yiv4170335582gmail_quote"><div class="ydpaf9aa8f9yiv4170335582gmail_attr" dir="ltr">On Sat, Aug 31, 2019 at 4:18 AM Strahil &lt;<a shape="rect" href="mailto:hunter86_bg@yahoo.com" rel="nofollow" target="_blank">hunter86_bg@yahoo.com</a>&gt; wrote:<br clear="none"></div><blockquote class="ydpaf9aa8f9yiv4170335582gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><p dir="ltr">The rebalance status show 0 Bytes.</p>
<p dir="ltr">Maybe you should try with the 'gluster volume rebalance &lt;VOLNAME&gt; start force' ?</p>
<p dir="ltr">Best Regards,<br clear="none">
Strahil Nikolov</p>
<p dir="ltr">Source: <a shape="rect" href="https://docs.gluster.org/en/latest/Administrator%20Guide/Managing%20Volumes/#rebalancing-volumes" rel="nofollow" target="_blank">https://docs.gluster.org/en/latest/Administrator%20Guide/Managing%20Volumes/#rebalancing-volumes</a></p>
<div class="ydpaf9aa8f9yiv4170335582gmail-m_5391763381010595151gmail-m_5756491740525534962gmail-m_-4220928129470485099gmail-m_-2367652991085990358gmail-m_6576207768150789355quote">On Aug 30, 2019 20:04, Herb Burnswell &lt;<a shape="rect" href="mailto:herbert.burnswell@gmail.com" rel="nofollow" target="_blank">herbert.burnswell@gmail.com</a>&gt; wrote:<br clear="none"><blockquote class="ydpaf9aa8f9yiv4170335582gmail-m_5391763381010595151gmail-m_5756491740525534962gmail-m_-4220928129470485099gmail-m_-2367652991085990358gmail-m_6576207768150789355quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div dir="ltr">All,<div><br clear="none"></div><div>RHEL 7.5</div><div>Gluster 3.8.15</div><div>2 Nodes: serverA &amp; serverB</div><div><br clear="none"></div><div>I am not deeply knowledgeable about Gluster and it's administration but we have a 2 node cluster that's been running for about a year and a half.&nbsp; All has worked fine to date.&nbsp; Our main volume has consisted of two 60TB bricks on each of the cluster nodes.&nbsp; As we reached capacity on the volume we needed to expand.&nbsp; So, we've added four new 60TB bricks to each of the cluster nodes.&nbsp; The bricks are now seen, and the total size of the volume is as expected:</div><div><br clear="none"></div><div># gluster vol status tank<br clear="none">Status of volume: tank<br clear="none">Gluster process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; TCP Port &nbsp;RDMA Port &nbsp;Online &nbsp;Pid<br clear="none">------------------------------------------------------------------------------<br clear="none">Brick serverA:/gluster_bricks/data1 &nbsp; &nbsp; &nbsp; 49162 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 20318<br clear="none">Brick serverB:/gluster_bricks/data1 &nbsp; &nbsp; &nbsp; 49166 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 3432 <br clear="none">Brick serverA:/gluster_bricks/data2 &nbsp; &nbsp; &nbsp; 49163 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 20323<br clear="none">Brick serverB:/gluster_bricks/data2 &nbsp; &nbsp; &nbsp; 49167 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 3435 <br clear="none">Brick serverA:/gluster_bricks/data3 &nbsp; &nbsp; &nbsp; 49164 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 4625 <br clear="none">Brick serverA:/gluster_bricks/data4 &nbsp; &nbsp; &nbsp; 49165 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 4644 <br clear="none">Brick serverA:/gluster_bricks/data5 &nbsp; &nbsp; &nbsp; 49166 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 5088 <br clear="none">Brick serverA:/gluster_bricks/data6 &nbsp; &nbsp; &nbsp; 49167 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 5128 <br clear="none">Brick serverB:/gluster_bricks/data3 &nbsp; &nbsp; &nbsp; 49168 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 22314<br clear="none">Brick serverB:/gluster_bricks/data4 &nbsp; &nbsp; &nbsp; 49169 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 22345<br clear="none">Brick serverB:/gluster_bricks/data5 &nbsp; &nbsp; &nbsp; 49170 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 22889<br clear="none">Brick serverB:/gluster_bricks/data6 &nbsp; &nbsp; &nbsp; 49171 &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 22932<br clear="none">Self-heal Daemon on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 22981<br clear="none">Self-heal Daemon on <a shape="rect" href="http://serverA.example.com" rel="nofollow" target="_blank">serverA.example.com</a> &nbsp; N/A &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 6202&nbsp;<br clear="none"></div><div><br clear="none"></div><div>After adding the bricks we ran a rebalance from serverA as:</div><div><br clear="none"></div><div>#&nbsp;gluster volume rebalance tank start</div><div><br clear="none"></div><div>The rebalance completed:</div><div><br clear="none"></div><div># gluster volume rebalance tank status<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Node Rebalanced-files &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;size &nbsp; &nbsp; &nbsp; scanned &nbsp; &nbsp; &nbsp;failures &nbsp; &nbsp; &nbsp; skipped &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; status &nbsp;run time in h:m:s<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;--------- &nbsp; &nbsp; &nbsp;----------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp; &nbsp; &nbsp; &nbsp; ------------ &nbsp; &nbsp; --------------<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;completed &nbsp; &nbsp; &nbsp; &nbsp;3:7:10<br clear="none">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;<a shape="rect" href="http://serverA.example.com" rel="nofollow" target="_blank">serverA.example.com</a> &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;completed &nbsp; &nbsp; &nbsp; &nbsp;0:0:0<br clear="none">volume rebalance: tank: success<br clear="none"></div><div><br clear="none"></div><div>However, when I run a df, the two original bricks still show all of the consumed space (this is the same on both nodes):</div><div><br clear="none"></div><div># df -hP<br clear="none">Filesystem &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Size &nbsp;Used Avail Use% Mounted on<br clear="none">/dev/mapper/vg0-root &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 5.0G &nbsp;625M &nbsp;4.4G &nbsp;13% /<br clear="none">devtmpfs &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;32G &nbsp; &nbsp; 0 &nbsp; 32G &nbsp; 0% /dev<br clear="none">tmpfs &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 32G &nbsp; &nbsp; 0 &nbsp; 32G &nbsp; 0% /dev/shm<br clear="none">tmpfs &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 32G &nbsp; 67M &nbsp; 32G &nbsp; 1% /run<br clear="none">tmpfs &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 32G &nbsp; &nbsp; 0 &nbsp; 32G &nbsp; 0% /sys/fs/cgroup<br clear="none">/dev/mapper/vg0-usr &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 20G &nbsp;3.6G &nbsp; 17G &nbsp;18% /usr<br clear="none">/dev/md126 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1014M &nbsp;228M &nbsp;787M &nbsp;23% /boot<br clear="none">/dev/mapper/vg0-home &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 5.0G &nbsp; 37M &nbsp;5.0G &nbsp; 1% /home<br clear="none">/dev/mapper/vg0-opt &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;5.0G &nbsp; 37M &nbsp;5.0G &nbsp; 1% /opt<br clear="none">/dev/mapper/vg0-tmp &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;5.0G &nbsp; 33M &nbsp;5.0G &nbsp; 1% /tmp<br clear="none">/dev/mapper/vg0-var &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 20G &nbsp;2.6G &nbsp; 18G &nbsp;13% /var<br clear="none">/dev/mapper/gluster_vg-gluster_lv1_data &nbsp; 60T &nbsp; 59T &nbsp;1.1T &nbsp;99% /gluster_bricks/data1<br clear="none">/dev/mapper/gluster_vg-gluster_lv2_data &nbsp; 60T &nbsp; 58T &nbsp;1.3T &nbsp;98% /gluster_bricks/data2<br clear="none">/dev/mapper/gluster_vg-gluster_lv3_data &nbsp; 60T &nbsp;451M &nbsp; 60T &nbsp; 1% /gluster_bricks/data3<br clear="none">/dev/mapper/gluster_vg-gluster_lv4_data &nbsp; 60T &nbsp;451M &nbsp; 60T &nbsp; 1% /gluster_bricks/data4<br clear="none">/dev/mapper/gluster_vg-gluster_lv5_data &nbsp; 60T &nbsp;451M &nbsp; 60T &nbsp; 1% /gluster_bricks/data5<br clear="none">/dev/mapper/gluster_vg-gluster_lv6_data &nbsp; 60T &nbsp;451M &nbsp; 60T &nbsp; 1% /gluster_bricks/data6<br clear="none">localhost:/tank &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;355T &nbsp;116T &nbsp;239T &nbsp;33% /mnt/tank<br clear="none"></div><div><br clear="none"></div><div>We were thinking that the used space would be distributed across the now 6 bricks after rebalance.&nbsp; Is that not what a rebalance does?&nbsp; Is this expected behavior?</div><div><br clear="none"></div><div>Can anyone provide some guidance as to what the behavior here and if there is anything that we need to do at this point?</div><div><br clear="none"></div><div>Thanks in advance,</div><div><br clear="none"></div><div>HB</div></div>
</blockquote></div></blockquote></div>
_______________________________________________<br clear="none">
Gluster-users mailing list<br clear="none">
<a shape="rect" href="mailto:Gluster-users@gluster.org" rel="nofollow" target="_blank">Gluster-users@gluster.org</a><br clear="none">
<a shape="rect" href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="nofollow" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div></div>
</blockquote></div>
_______________________________________________<br clear="none">
Gluster-users mailing list<br clear="none">
<a shape="rect" href="mailto:Gluster-users@gluster.org" rel="nofollow" target="_blank">Gluster-users@gluster.org</a><br clear="none">
<a shape="rect" href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="nofollow" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div></div>
</blockquote></div></div></div></div></div><div class="ydpaf9aa8f9yqt9107665967" id="ydpaf9aa8f9yqtfd98138">_______________________________________________<br clear="none">Gluster-users mailing list<br clear="none"><a shape="rect" href="mailto:Gluster-users@gluster.org" rel="nofollow" target="_blank">Gluster-users@gluster.org</a><br clear="none"><a shape="rect" href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="nofollow" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a></div></div>
            </div>
        </div></body></html>