<html><head><meta http-equiv="Content-Type" content="text/html; charset=UTF-8"><title></title><style type="text/css">.felamimail-body-blockquote {margin: 5px 10px 0 3px;padding-left: 10px;border-left: 2px solid #000088;} </style></head><body><div><span class="felamimail-body-signature"></span>Hi Susant,</div><div><br></div><div>and thanks for your fast reply and pointing me to that log. So i was able to find the problem: "dht-rebalance.c:1052:__dht_check_free_space] 0-vol4-dht: Could not find any subvol with space accomodating the file"</div><div><br></div><div>But Volume Detail and df -h show xTB of free Disk Space and also Free Inodes. <br></div><div><br></div><div>Options Reconfigured:<br>performance.client-io-threads: on<br>storage.reserve: 0<br>performance.parallel-readdir: off<br>performance.readdir-ahead: off<br>auth.allow: 192.168.0.*<br>nfs.disable: off<br>transport.address-family: inet</div><div><br></div><div>Ok since there is enough disk space on other Bricks and i actually didnt complete brick-remove, can i rerun brick-remove to rebalance last Files and Folders?</div><div><br></div><div>Thanks</div><div>Taste<br></div><div><br></div><div><br></div>Am 12.03.2019 10:49:13, schrieb Susant Palai:
<br><blockquote class="felamimail-body-blockquote"><div dir="ltr"><div>Would it be possible for you to pass the rebalance log file on the node from which you want to remove the brick? (location : /var/log/glusterfs/&lt;volume-name-rebalance.log&gt;)</div><div><br></div><div>+ the following information:<br></div><div>&nbsp;1 - gluster volume info&nbsp;</div><div>&nbsp;2 - gluster volume status</div><div>&nbsp;2 - df -h output on all 3 nodes</div><div><br></div><div><br></div><div>Susant</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Mar 12, 2019 at 3:08 PM Taste-Of-IT &lt;<a href="mailto:kontakt@taste-of-it.de" target="_blank">kontakt@taste-of-it.de</a>&gt; wrote:<br></div><blockquote class="felamimail-body-blockquote" style="margin:0px 0px 0px .8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;">Hi,<br>i have a 3 Node Distributed Gluster. I have one Volume over all 3 Nodes / Bricks.&nbsp; I want to remove one Brick and run gluster volume remove-brick &lt;vol&gt; &lt;brickname&gt; start. The Job completes and shows 11960 failures and only transfers 5TB out of 15TB Data. I have still files and folders on this volume on the brick to remove. I actually didnt run the final command&nbsp; with "commit". Both other Nodes have each over 6TB of free Space, so it can hold the remaininge Data from Brick3 theoretically.<br><br>Need help.<br>thx<br>Taste<br>_______________________________________________<br>Gluster-users mailing list<br><a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br><a href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div></div>
</blockquote><br></body></html>