<html><body><div style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000"><div>Dear Amar and others who have answered,<br></div><div><br data-mce-bogus="1"></div><div>many thanks for the answers. Sorry for my late reply, my internet access here varies currently between 500 and 16 kbit/s and I'm working most days, so it's not so easy to find the time to write a full response :-)</div><div>I did not mean to come across condescending, and from your responses it seems that you weren't offended, thanks.<br data-mce-bogus="1"></div><div><br data-mce-bogus="1"></div><div>As I said, my main concern right now is to stabilise our production systems. I work for several non-profit orgs and money is an issue, so most of the IT "budget" is comprised of my work time. One of the issues we're having is similar to this report: <a href="https://lists.gluster.org/pipermail/gluster-users/2020-February/037657.html">https://lists.gluster.org/pipermail/gluster-users/2020-February/037657.html</a><br data-mce-bogus="1"></div><div>We have tried the advice given but it didn't help. I am also working with Ceph a lot and the tooling for ceph seems better than for gluster, especially in terms of checking the status and analyzing and repairing fault situations. So it's good to hear that there are plans to improve GlusterFS in this area.<br data-mce-bogus="1"></div><div><br data-mce-bogus="1"></div><div>It might be that our setup is so small that it's not well tested. We mostly run 2+1 setups, data bricks on large HDDs and the arbiter brick on SSD. It could be that the HDDs are too slow and there are timeouts in gluster that "stop" or hinder the healing process? I don't know but I can try to find out.<br data-mce-bogus="1"></div><div><br data-mce-bogus="1"></div><div><div>I absolutely acknowledge that GlusterFS is an open source project (although the backing by RedHat makes it look loke a "big"/professional project). I have contributed to a lot of open source projects in the past, and being a developer myself, I can certainly relate to the frustration of "bug reports" that do not come with sufficient information and are not reproducible. When I return from this work trip I will try to create a test case for our problems and report it as a bug.<br data-mce-bogus="1"></div></div><div><br data-mce-bogus="1"></div><div>Thanks so far,<br data-mce-bogus="1"></div><div><br data-mce-bogus="1"></div><div>Stefan<br data-mce-bogus="1"></div><div><br></div><hr id="zwchr" data-marker="__DIVIDER__"><div data-marker="__HEADERS__"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><b>From: </b>"Amar Tumballi" &lt;amar@kadalu.io&gt;<br><b>To: </b>"Stefan" &lt;gluster@stefanseidel.info&gt;<br><b>Cc: </b>"gluster-users" &lt;gluster-users@gluster.org&gt;<br><b>Sent: </b>Saturday, 15 February, 2020 16:11:03<br><b>Subject: </b>Re: [Gluster-users] GlusterFS problems &amp; alternatives<br></blockquote></div><div data-marker="__QUOTED_TEXT__"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><div dir="ltr"><div class="elided-text"><div>Hi Stefan,</div><br><div>Some responses inline (Adding to already expressed opinions from few users, and some developers).</div><div>&nbsp;</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb( 204 , 204 , 204 );padding-left:1ex"><div dir="ltr"><div class="elided-text"><div dir="ltr">From: <strong class="gmail_sendername" dir="auto">Stefan</strong> <span dir="auto">&lt;<a href="mailto:gluster@stefanseidel.info" target="_blank" rel="nofollow noopener noreferrer">gluster@stefanseidel.info</a>&gt;</span><br>Date: Wed, Feb 12, 2020 at 3:34 AM<br></div><br>Hi,<br>
<br>
looking through the last couple of week on this mailing list and reflecting our own experiences, I have to ask: what is the status of GlusterFS?</div></div></blockquote><br><div>Status is surely 'Active'. Considering the project is of 13+ yrs, treat current mode is 'low tide' in activity wave. But I want to assure, being a maintainer, I would like to keep the project&nbsp; active and will continue to solve use-cases where it fits well.<br></div><br><div>Also, if you notice, we just recently had Release-8 planning meeting, and the scope and future of the project leading to GlusterX (GlusterFS 10 release) is being discussed.&nbsp;</div><div>&nbsp;</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb( 204 , 204 , 204 );padding-left:1ex"><div dir="ltr"><div class="elided-text"> So many people here reporting bugs and no solutions are in sight.</div></div></blockquote><br><div><div>Sorry about that. I have to accept the statement with a pinch of salt. There is no 'good' answer when a user is unhappy. But I want to write a long answer for this particular point.</div><br><div>Like any 'open source' project, there are few commercially supporting Enterprises backing Gluster, who still have many developers engaged in making sure the project is active. But the fact is, a developer can pick an issue to fix based on their 'employer' priorities. Sometimes, it so happens that the usecases&nbsp;where there are problems in glusterfs may not be a priority for most of the developers due to their employer priority.&nbsp;</div><br><div>As an individual contributor/maintainer for the project, the biggest challenge in picking and fixing the issues which are complicated can be listed like below:</div><br><div>* The problem may not happen when there is lesser load, or scale. Which means, the fix would still be based on 'speculation' or 'knowing the code'. Validate our fixes at scale is a challenge without a company support.</div><div>* We may not be able to reproduce the issue, which again would delay the fix.</div><div>* The project itself deals with 'data', so many users may not be able to provide more information, which again makes the delay.</div><br><div>All these issues aside, I want to take time and appreciate those users who actively answer queries of fellow users, and keep the lights on in the community. It is one of the major contributions anyone can give back to an opensource community.</div></div><div>&nbsp;</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb( 204 , 204 , 204 );padding-left:1ex"><div dir="ltr"><div class="elided-text"> GlusterFS clusters break left and right, reboots of a node have become a warrant for instability and broken clusters, no way to fix broken clusters. And all of that with recommended settings, and in our case, enterprise hardware underneath.<br></div></div></blockquote><br><div style="color:rgb( 80 , 0 , 80 )"><div>I should acknowledge the 'documentation', which would have 'recommended' setup, is possibly out of date! We are on to fixing the documentation right now..</div></div><div>&nbsp;</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb( 204 , 204 , 204 );padding-left:1ex"><div dir="ltr"><div class="elided-text">
Is it time to abandon this for production systems?<br></div></div></blockquote><br><div>This is a very critical question. As person responsible for running an infra for my company, I surely should be asking this question, especially if things are not working out.&nbsp;Nothing wrong in you asking this. I would say if you have production systems, consider talking to companies who support the project etc, and have the alternative options properly thought of.<br></div><br><div>If interested, I am happy to make time and we can talk about particular issues, and what do you expect to see, and give feedback. After that, you can take decision on this.</div><div>&nbsp;</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb( 204 , 204 , 204 );padding-left:1ex"><div dir="ltr"><div class="elided-text">
What are the alternatives?<br></div></div></blockquote><br><div><div>Not a good person to answer. But would be great to know alternatives, so we also learn what more we can do here.</div></div><div>&nbsp;</div><div>Regards,</div><div>-Amar Tumballi</div><br><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb( 204 , 204 , 204 );padding-left:1ex"><div dir="ltr"><div class="elided-text">
Looking through the solutions, CephFS might be one, but it doesn't seem to be very fast. MooseFS would be one, but it only support RAID-1 style replication, no arbiter and Erasure Coding only in the Pro version.<br>
Tahoe-LAFS is geared towards a different use case.<br>
Any other suggestions?<br>
<br>
Thanks,<br>
<br>
Stefan<br>
________</div></div></blockquote></div></div><br></blockquote></div></div></body></html>