<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jul 23, 2018 at 8:21 PM, Gudrun Mareike Amedick <span dir="ltr">&lt;<a href="mailto:g.amedick@uni-luebeck.de" target="_blank">g.amedick@uni-luebeck.de</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
we&#39;re planning a dispersed volume with at least 50 project directories. Each of those has its own quota ranging between 0.1TB and 200TB. Comparing XFS<br>
project quotas over several servers and bricks to make sure their total matches the desired value doesn&#39;t really sound practical. It would probably be<br>
possible to create and maintain 50 volumes and more, but it doesn&#39;t seem to be a desirable solution. The quotas aren&#39;t fixed and resizing a volume is<br>
not as trivial as changing the quota. <br>
<br>
Quota was in the past and still is a very comfortable way to solve this.<br>
<br>
But what is the new recommended way for such a setting when the quota is going to be deprecated?<br>
<br></blockquote><div><br></div><div>Thanks for the feedback. Helps us to prioritize. Will get back on this.</div><div><br></div><div>-Amar</div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Kind regards<br>
<br>
Gudrun<br>
<div><div class="h5">Am Donnerstag, den 19.07.2018, 12:26 +0530 schrieb Amar Tumballi:<br>
&gt; Hi all,<br>
&gt; <br>
&gt; Over last 12 years of Gluster, we have developed many features, and continue to support most of it till now. But along the way, we have figured out<br>
&gt; better methods of doing things. Also we are not actively maintaining some of these features.<br>
&gt; <br>
&gt; We are now thinking of cleaning up some of these ‘unsupported’ features, and mark them as ‘SunSet’ (i.e., would be totally taken out of codebase in<br>
&gt; following releases) in next upcoming release, v5.0. The release notes will provide options for smoothly migrating to the supported configurations.<br>
&gt; <br>
&gt; If you are using any of these features, do let us know, so that we can help you with ‘migration’.. Also, we are happy to guide new developers to<br>
&gt; work on those components which are not actively being maintained by current set of developers.<br>
&gt; <br>
&gt; List of features hitting sunset:<br>
&gt; <br>
&gt; ‘cluster/stripe’ translator:<br>
&gt; <br>
&gt; This translator was developed very early in the evolution of GlusterFS, and addressed one of the very common question of Distributed FS, which is<br>
&gt; “What happens if one of my file is bigger than the available brick. Say, I have 2 TB hard drive, exported in glusterfs, my file is 3 TB”. While it<br>
&gt; solved the purpose, it was very hard to handle failure scenarios, and give a real good experience to our users with this feature. Over the time,<br>
&gt; Gluster solved the problem with it’s ‘Shard’ feature, which solves the problem in much better way, and provides much better solution with existing<br>
&gt; well supported stack. Hence the proposal for Deprecation.<br>
&gt; <br>
&gt; If you are using this feature, then do write to us, as it needs a proper migration from existing volume to a new full supported volume type before<br>
&gt; you upgrade.<br>
&gt; <br>
&gt; ‘storage/bd’ translator:<br>
&gt; <br>
&gt; This feature got into the code base 5 years back with this patch[1]. Plan was to use a block device directly as a brick, which would help to handle<br>
&gt; disk-image storage much easily in glusterfs.<br>
&gt; <br>
&gt; As the feature is not getting more contribution, and we are not seeing any user traction on this, would like to propose for Deprecation.<br>
&gt; <br>
&gt; If you are using the feature, plan to move to a supported gluster volume configuration, and have your setup ‘supported’ before upgrading to your new<br>
&gt; gluster version.<br>
&gt; <br>
&gt; ‘RDMA’ transport support:<br>
&gt; <br>
&gt; Gluster started supporting RDMA while ib-verbs was still new, and very high-end infra around that time were using Infiniband. Engineers did work<br>
&gt; with Mellanox, and got the technology into GlusterFS for better data migration, data copy. While current day kernels support very good speed with<br>
&gt; IPoIB module itself, and there are no more bandwidth for experts in these area to maintain the feature, we recommend migrating over to TCP (IP<br>
&gt; based) network for your volume.<br>
&gt; <br>
&gt; If you are successfully using RDMA transport, do get in touch with us to prioritize the migration plan for your volume. Plan is to work on this<br>
&gt; after the release, so by version 6.0, we will have a cleaner transport code, which just needs to support one type.<br>
&gt; <br>
&gt; ‘Tiering’ feature<br>
&gt; <br>
&gt; Gluster’s tiering feature which was planned to be providing an option to keep your ‘hot’ data in different location than your cold data, so one can<br>
&gt; get better performance. While we saw some users for the feature, it needs much more attention to be completely bug free. At the time, we are not<br>
&gt; having any active maintainers for the feature, and hence suggesting to take it out of the ‘supported’ tag.<br>
&gt; <br>
&gt; If you are willing to take it up, and maintain it, do let us know, and we are happy to assist you.<br>
&gt; <br>
&gt; If you are already using tiering feature, before upgrading, make sure to do gluster volume tier detach all the bricks before upgrading to next<br>
&gt; release. Also, we recommend you to use features like dmcache on your LVM setup to get best performance from bricks.<br>
&gt; <br>
&gt; ‘Quota’<br>
&gt; <br>
&gt; This is a call out for ‘Quota’ feature, to let you all know that it will be ‘no new development’ state. While this feature is ‘actively’ in use by<br>
&gt; many people, the challenges we have in accounting mechanisms involved, has made it hard to achieve good performance with the feature. Also, the<br>
&gt; amount of extended attribute get/set operations while using the feature is not very ideal. Hence we recommend our users to move towards setting<br>
&gt; quota on backend bricks directly (ie, XFS project quota), or to use different volumes for different directories etc.<br>
&gt; <br>
&gt; As the feature wouldn’t be deprecated immediately, the feature doesn’t need a migration plan when you upgrade to newer version, but if you are a new<br>
&gt; user, we wouldn’t recommend setting quota feature. By the release dates, we will be publishing our best alternatives guide for gluster’s current<br>
&gt; quota feature.<br>
&gt; <br>
&gt; Note that if you want to contribute to the feature, we have project quota based issue open[2] Happy to get contributions, and help in getting a<br>
&gt; newer approach to Quota.<br>
&gt; <br>
&gt; <br>
</div></div><span class="">&gt; These are our set of initial features which we propose to take out of ‘fully’ supported features. While we are in the process of making the<br>
&gt; user/developer experience of the project much better with providing well maintained codebase, we may come up with few more set of features which we<br>
&gt; may possibly consider to move out of support, and hence keep watching this space.<br>
&gt; <br>
&gt; [1] - <a href="http://review.gluster.org/4809" rel="noreferrer" target="_blank">http://review.gluster.org/4809</a><br>
&gt; <br>
&gt; [2] - <a href="https://github.com/gluster/glusterfs/issues/184" rel="noreferrer" target="_blank">https://github.com/gluster/<wbr>glusterfs/issues/184</a><br>
&gt; <br>
&gt; <br>
&gt; Regards,<br>
&gt; <br>
&gt; Vijay, Shyam, Amar<br>
&gt; <br>
&gt; <br>
</span>&gt; ______________________________<wbr>_________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div>Amar Tumballi (amarts)<br></div></div></div></div></div>
</div></div>