<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, May 2, 2017 at 12:07 AM, Shyam <span dir="ltr">&lt;<a href="mailto:srangana@redhat.com" target="_blank">srangana@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 05/01/2017 02:23 PM, Pranith Kumar Karampuri wrote:<br>
</span><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">
<br>
<br>
On Mon, May 1, 2017 at 11:43 PM, Shyam &lt;<a href="mailto:srangana@redhat.com" target="_blank">srangana@redhat.com</a><br></span><span class="">
&lt;mailto:<a href="mailto:srangana@redhat.com" target="_blank">srangana@redhat.com</a>&gt;&gt; wrote:<br>
<br>
    On 05/01/2017 02:00 PM, Pranith Kumar Karampuri wrote:<br>
<br>
            Splitting the bricks need not be a post factum decision, we can<br>
            start with larger brick counts, on a given node/disk count, and<br>
            hence spread these bricks to newer nodes/bricks as they are<br>
        added.<br>
<br>
<br>
        Let&#39;s say we have 1 disk, we format it with say XFS and that<br>
        becomes a<br>
        brick at the moment. Just curious, what will be the relationship<br>
        between<br>
        brick to disk in this case(If we leave out LVM for this example)?<br>
<br>
<br>
    I would assume the relation is brick to provided FS directory (not<br>
    brick to disk, we do not control that at the moment, other than<br>
    providing best practices around the same).<br>
<br>
<br>
Hmmm... as per my understanding, if we do this then &#39;df&#39; I guess will<br>
report wrong values? available-size/free-size etc will be counted more<br>
than once?<br>
</span></blockquote>
<br>
This is true even today, if anyone uses 2 bricks from the same mount.<br></blockquote><div><br></div><div>That is the reason why documentation is the way it is as far as I can remember.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
I forgot a converse though, we could take a disk and partition it (LVM thinp volumes) and use each of those partitions as bricks, avoiding the problem of df double counting. Further thinp will help us expand available space to other bricks on the same disk, as we destroy older bricks or create new ones to accommodate the moving pieces (needs more careful thought though, but for sure is a nightmare without thinp).<br>
<br>
I am not so much a fan of large number of thinp partitions, so as long as that is reasonably in control, we can possibly still use it. The big advantage though is, we nuke a thinp volume when the brick that uses that partition, moves out of that disk, and we get the space back, rather than having or to something akin to rm -rf on the backend to reclaim space.</blockquote><div><br></div><div>Other way to achieve the same is to leverage the quota functionality of counting how much size is used under a directory.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
<br>
<br>
    Today, gluster takes in a directory on host as a brick, and assuming<br>
    we retain that, we would need to split this into multiple sub-dirs<br>
    and use each sub-dir as a brick internally.<br>
<br>
    All these sub-dirs thus created are part of the same volume (due to<br>
    our current snapshot mapping requirements).<br>
<br>
<br>
<br>
<br>
--<br>
Pranith<br>
</blockquote>
</div></div></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Pranith<br></div></div>
</div></div>