<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Sat, Mar 18, 2017 at 11:15 PM, Gandalf Corvotempesta <span dir="ltr">&lt;<a href="mailto:gandalf.corvotempesta@gmail.com" target="_blank">gandalf.corvotempesta@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Krutika, it wasn&#39;t an attack directly to you.<br>
It wasn&#39;t an attack at all. <br></blockquote><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Gluster is a &quot;SCALE-OUT&quot; software defined storage, the folllowing is<br>
wrote in the middle of the homepage:<br>
&quot;GlusterFS is a scalable network filesystem&quot;<br>
<br>
So, scaling a cluster is one of the primary goal of gluster.<br>
<br>
A critical bug that prevent gluster from being scaled without loosing<br>
data was discovered 1 year ago, and took 1 year to be fixed. <br></blockquote><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
If gluster isn&#39;t able to ensure data consistency when doing it&#39;s<br>
primary role, scaling up a storage, i&#39;m sorry but it can&#39;t be<br>
considered &quot;enterprise&quot; ready or production ready.<br></blockquote><div><br></div><div>That&#39;s not entirely true. VM use-case is just one of the many workloads users<br></div><div>use Gluster for. I think I&#39;ve clarified this before. The bug was in dht-shard interaction.<br></div><div>And shard is *only* supported in VM use-case as of today. This means that<br></div><div>scaling out has been working fine on all but the VM use-case.<br></div><div>That doesn&#39;t mean that Gluster is not production-ready. At least users who&#39;ve deployed Gluster<br></div><div>in non-VM use-cases haven&#39;t complained of add-brick not working in the recent past.<br><br><br></div><div>-Krutika<br> <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Maybe SOHO for small offices or home users, but in enterprises, data<br>
consistency and reliability is the most important thing and gluster<br>
isn&#39;t able to guarantee this even<br>
doing a very basic routine procedure that should be considered as the<br>
basis of the whole gluster project (as wrote on gluster&#39;s homepage)<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
2017-03-18 14:21 GMT+01:00 Krutika Dhananjay &lt;<a href="mailto:kdhananj@redhat.com">kdhananj@redhat.com</a>&gt;:<br>
&gt;<br>
&gt;<br>
&gt; On Sat, Mar 18, 2017 at 3:18 PM, Gandalf Corvotempesta<br>
&gt; &lt;<a href="mailto:gandalf.corvotempesta@gmail.com">gandalf.corvotempesta@gmail.<wbr>com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; 2017-03-18 2:09 GMT+01:00 Lindsay Mathieson &lt;<a href="mailto:lindsay.mathieson@gmail.com">lindsay.mathieson@gmail.com</a>&gt;:<br>
&gt;&gt; &gt; Concerning, this was supposed to be fixed in 3.8.10<br>
&gt;&gt;<br>
&gt;&gt; Exactly. <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1387878" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/<wbr>show_bug.cgi?id=1387878</a><br>
&gt;&gt; Now let&#39;s see how much time they require to fix another CRITICAL bug.<br>
&gt;&gt;<br>
&gt;&gt; I&#39;m really curious.<br>
&gt;<br>
&gt;<br>
&gt; Hey Gandalf!<br>
&gt;<br>
&gt; Let&#39;s see. There have been plenty of occasions where I&#39;ve sat and worked on<br>
&gt; users&#39; issues on weekends.<br>
&gt; And then again, I&#39;ve got a life too outside of work (or at least I&#39;m<br>
&gt; supposed to), you know.<br>
&gt; (And hey you know what! Today is Saturday and I&#39;m sitting here and<br>
&gt; responding to your mail and collecting information<br>
&gt; on Mahdi&#39;s issue. Nobody asked me to look into it. I checked the mail and I<br>
&gt; had a choice to ignore it and not look into it until Monday.)<br>
&gt;<br>
&gt; Is there a genuine problem Mahdi is facing? Without a doubt!<br>
&gt;<br>
&gt; Got a constructive feedback to give? Please do.<br>
&gt; Do you want to give back to the community and help improve GlusterFS? There<br>
&gt; are plenty of ways to do that.<br>
&gt; One of them is testing out the releases and providing feedback. Sharding<br>
&gt; wouldn&#39;t have worked today, if not for Lindsay&#39;s timely<br>
&gt; and regular feedback in several 3.7.x releases.<br>
&gt;<br>
&gt; But this kind of criticism doesn&#39;t help.<br>
&gt;<br>
&gt; Also, spending time on users&#39; issues is only one of the many<br>
&gt; responsibilities we have as developers.<br>
&gt; So what you see on mailing lists is just the tip of the iceberg.<br>
&gt;<br>
&gt; I have personally tried several times to recreate the add-brick bug on 3<br>
&gt; machines I borrowed from Kaleb. I haven&#39;t had success in recreating it.<br>
&gt; Reproducing VM-related bugs, in my experience, wasn&#39;t easy. I don&#39;t use<br>
&gt; Proxmox. Lindsay and Kevin did. There are a myriad qemu options used when<br>
&gt; launching vms. Different VM management projects (ovirt/Proxmox) use<br>
&gt; different defaults for these options. There are too many variables to be<br>
&gt; considered<br>
&gt; when debugging or trying to simulate the users&#39; test.<br>
&gt;<br>
&gt; It&#39;s why I asked for Mahdi&#39;s help before 3.8.10 was out for feedback on the<br>
&gt; fix:<br>
&gt; <a href="http://lists.gluster.org/pipermail/gluster-users/2017-February/030112.html" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>pipermail/gluster-users/2017-<wbr>February/030112.html</a><br>
&gt;<br>
&gt; Alright. That&#39;s all I had to say.<br>
&gt;<br>
&gt; Happy weekend to you!<br>
&gt;<br>
&gt; -Krutika<br>
&gt;<br>
&gt;&gt; ______________________________<wbr>_________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
&gt;<br>
&gt;<br>
</div></div></blockquote></div><br></div></div>