<div dir="ltr"><div dir="ltr">Hello Richard,<div><br></div><div>Thank you for the logs.</div><div><br></div><div>I am wondering if this could be a different memory leak than the one addressed in the bug. Would it be possible for you to obtain a statedump of the client so that we can understand the memory allocation pattern better? Details about gathering a statedump can be found at [1]. Please ensure that /var/run/gluster is present before triggering a statedump.</div><div><br></div><div>Regards,</div><div>Vijay</div><div><br></div><div>[1] <a href="https://docs.gluster.org/en/v3/Troubleshooting/statedump/">https://docs.gluster.org/en/v3/Troubleshooting/statedump/</a></div><div><br></div></div></div><br><div class="gmail_quote"><div dir="ltr">On Fri, Sep 21, 2018 at 12:14 AM Richard Neuboeck &lt;<a href="mailto:hawk@tbi.univie.ac.at">hawk@tbi.univie.ac.at</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi again,<br>
<br>
in my limited - non full time programmer - understanding it&#39;s a memory<br>
leak in the gluster fuse client.<br>
<br>
Should I reopen the mentioned bugreport or open a new one? Or would the<br>
community prefer an entirely different approach?<br>
<br>
Thanks<br>
Richard<br>
<br>
On 13.09.18 10:07, Richard Neuboeck wrote:<br>
&gt; Hi,<br>
&gt; <br>
&gt; I&#39;ve created excerpts from the brick and client logs +/- 1 minute to<br>
&gt; the kill event. Still the logs are ~400-500MB so will put them<br>
&gt; somewhere to download since I have no idea what I should be looking<br>
&gt; for and skimming them didn&#39;t reveal obvious problems to me.<br>
&gt; <br>
&gt; <a href="http://www.tbi.univie.ac.at/~hawk/gluster/brick_3min_excerpt.log" rel="noreferrer" target="_blank">http://www.tbi.univie.ac.at/~hawk/gluster/brick_3min_excerpt.log</a><br>
&gt; <a href="http://www.tbi.univie.ac.at/~hawk/gluster/mnt_3min_excerpt.log" rel="noreferrer" target="_blank">http://www.tbi.univie.ac.at/~hawk/gluster/mnt_3min_excerpt.log</a><br>
&gt; <br>
&gt; I was pointed in the direction of the following Bugreport<br>
&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1613512" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1613512</a><br>
&gt; It sounds right but seems to have been addressed already.<br>
&gt; <br>
&gt; If there is anything I can do to help solve this problem please let<br>
&gt; me know. Thanks for your help!<br>
&gt; <br>
&gt; Cheers<br>
&gt; Richard<br>
&gt; <br>
&gt; <br>
&gt; On 9/11/18 10:10 AM, Richard Neuboeck wrote:<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; since I feared that the logs would fill up the partition (again) I<br>
&gt;&gt; checked the systems daily and finally found the reason. The glusterfs<br>
&gt;&gt; process on the client runs out of memory and get&#39;s killed by OOM after<br>
&gt;&gt; about four days. Since rsync runs for a couple of days longer till it<br>
&gt;&gt; ends I never checked the whole time frame in the system logs and never<br>
&gt;&gt; stumbled upon the OOM message.<br>
&gt;&gt;<br>
&gt;&gt; Running out of memory on a 128GB RAM system even with a DB occupying<br>
&gt;&gt; ~40% of that is kind of strange though. Might there be a leak?<br>
&gt;&gt;<br>
&gt;&gt; But this would explain the erratic behavior I&#39;ve experienced over the<br>
&gt;&gt; last 1.5 years while trying to work with our homes on glusterfs.<br>
&gt;&gt;<br>
&gt;&gt; Here is the kernel log message for the killed glusterfs process.<br>
&gt;&gt; <a href="https://gist.github.com/bleuchien/3d2b87985ecb944c60347d5e8660e36a" rel="noreferrer" target="_blank">https://gist.github.com/bleuchien/3d2b87985ecb944c60347d5e8660e36a</a><br>
&gt;&gt;<br>
&gt;&gt; I&#39;m checking the brick and client trace logs. But those are respectively<br>
&gt;&gt; 1TB and 2TB in size so searching in them takes a while. I&#39;ll be creating<br>
&gt;&gt; gists for both logs about the time when the process died.<br>
&gt;&gt;<br>
&gt;&gt; As soon as I have more details I&#39;ll post them.<br>
&gt;&gt;<br>
&gt;&gt; Here you can see a graphical representation of the memory usage of this<br>
&gt;&gt; system: <a href="https://imgur.com/a/4BINtfr" rel="noreferrer" target="_blank">https://imgur.com/a/4BINtfr</a><br>
&gt;&gt;<br>
&gt;&gt; Cheers<br>
&gt;&gt; Richard<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On 31.08.18 08:13, Raghavendra Gowdappa wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Fri, Aug 31, 2018 at 11:11 AM, Richard Neuboeck<br>
&gt;&gt;&gt; &lt;<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a> &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&gt;&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;     On 08/31/2018 03:50 AM, Raghavendra Gowdappa wrote:<br>
&gt;&gt;&gt;     &gt; +Mohit. +Milind<br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt; @Mohit/Milind,<br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt; Can you check logs and see whether you can find anything relevant?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;     From glances at the system logs nothing out of the ordinary<br>
&gt;&gt;&gt;     occurred. However I&#39;ll start another rsync and take a closer look.<br>
&gt;&gt;&gt;     It will take a few days.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt; On Thu, Aug 30, 2018 at 7:04 PM, Richard Neuboeck<br>
&gt;&gt;&gt;     &gt; &lt;<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a> &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&gt;<br>
&gt;&gt;&gt;     &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a> &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&gt;&gt;&gt; wrote:<br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt;     Hi,<br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt;     I&#39;m attaching a shortened version since the whole is about 5.8GB of<br>
&gt;&gt;&gt;     &gt;     the client mount log. It includes the initial mount messages and the<br>
&gt;&gt;&gt;     &gt;     last two minutes of log entries.<br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt;     It ends very anticlimactic without an obvious error. Is there<br>
&gt;&gt;&gt;     &gt;     anything specific I should be looking for?<br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt; Normally I look logs around disconnect msgs to find out the reason.<br>
&gt;&gt;&gt;     &gt; But as you said, sometimes one can see just disconnect msgs without<br>
&gt;&gt;&gt;     &gt; any reason. That normally points to reason for disconnect in the<br>
&gt;&gt;&gt;     &gt; network rather than a Glusterfs initiated disconnect.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;     The rsync source is serving our homes currently so there are NFS<br>
&gt;&gt;&gt;     connections 24/7. There don&#39;t seem to be any network related<br>
&gt;&gt;&gt;     interruptions <br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Can you set diagnostics.client-log-level and diagnostics.brick-log-level<br>
&gt;&gt;&gt; to TRACE and check logs of both ends of connections - client and brick?<br>
&gt;&gt;&gt; To reduce the logsize, I would suggest to logrotate existing logs and<br>
&gt;&gt;&gt; start with fresh logs when you are about to start so that only relevant<br>
&gt;&gt;&gt; logs are captured. Also, can you take strace of client and brick process<br>
&gt;&gt;&gt; using:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; strace -o &lt;outputfile&gt; -ff -v -p &lt;pid&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; attach both logs and strace. Let&#39;s trace through what syscalls on socket<br>
&gt;&gt;&gt; return and then decide whether to inspect tcpdump or not. If you don&#39;t<br>
&gt;&gt;&gt; want to repeat tests again, please capture tcpdump too (on both ends of<br>
&gt;&gt;&gt; connection) and send them to us.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;     - a co-worker would be here faster than I could check<br>
&gt;&gt;&gt;     the logs if the connection to home would be broken ;-)<br>
&gt;&gt;&gt;     The three gluster machines are due to this problem reduced to only<br>
&gt;&gt;&gt;     testing so there is nothing else running.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt;     Cheers<br>
&gt;&gt;&gt;     &gt;     Richard<br>
&gt;&gt;&gt;     &gt; <br>
&gt;&gt;&gt;     &gt;     On 08/30/2018 02:40 PM, Raghavendra Gowdappa wrote:<br>
&gt;&gt;&gt;     &gt;     &gt; Normally client logs will give a clue on why the disconnections are<br>
&gt;&gt;&gt;     &gt;     &gt; happening (ping-timeout, wrong port etc). Can you look into client<br>
&gt;&gt;&gt;     &gt;     &gt; logs to figure out what&#39;s happening? If you can&#39;t find anything, can<br>
&gt;&gt;&gt;     &gt;     &gt; you send across client logs?<br>
&gt;&gt;&gt;     &gt;     &gt; <br>
&gt;&gt;&gt;     &gt;     &gt; On Wed, Aug 29, 2018 at 6:11 PM, Richard Neuboeck<br>
&gt;&gt;&gt;     &gt;     &gt; &lt;<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a> &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&gt;<br>
&gt;&gt;&gt;     &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a> &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&gt;&gt;<br>
&gt;&gt;&gt;     &gt;     &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a> &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&gt;<br>
&gt;&gt;&gt;     &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a> &lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;     &gt;     wrote:<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     Hi Gluster Community,<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     I have problems with a glusterfs &#39;Transport endpoint not<br>
&gt;&gt;&gt;     &gt;     connected&#39;<br>
&gt;&gt;&gt;     &gt;     &gt;     connection abort during file transfers that I can<br>
&gt;&gt;&gt;     &gt;     replicate (all the<br>
&gt;&gt;&gt;     &gt;     &gt;     time now) but not pinpoint as to why this is happening.<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     The volume is set up in replica 3 mode and accessed with<br>
&gt;&gt;&gt;     &gt;     the fuse<br>
&gt;&gt;&gt;     &gt;     &gt;     gluster client. Both client and server are running CentOS<br>
&gt;&gt;&gt;     &gt;     and the<br>
&gt;&gt;&gt;     &gt;     &gt;     supplied 3.12.11 version of gluster.<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     The connection abort happens at different times during<br>
&gt;&gt;&gt;     &gt;     rsync but<br>
&gt;&gt;&gt;     &gt;     &gt;     occurs every time I try to sync all our files (1.1TB) to<br>
&gt;&gt;&gt;     &gt;     the empty<br>
&gt;&gt;&gt;     &gt;     &gt;     volume.<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     Client and server side I don&#39;t find errors in the gluster<br>
&gt;&gt;&gt;     &gt;     log files.<br>
&gt;&gt;&gt;     &gt;     &gt;     rsync logs the obvious transfer problem. The only log that<br>
&gt;&gt;&gt;     &gt;     shows<br>
&gt;&gt;&gt;     &gt;     &gt;     anything related is the server brick log which states<br>
&gt;&gt;&gt;     that the<br>
&gt;&gt;&gt;     &gt;     &gt;     connection is shutting down:<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     [2018-08-18 22:40:35.502510] I [MSGID: 115036]<br>
&gt;&gt;&gt;     &gt;     &gt;     [server.c:527:server_rpc_notify] 0-home-server:<br>
&gt;&gt;&gt;     disconnecting<br>
&gt;&gt;&gt;     &gt;     &gt;     connection from<br>
&gt;&gt;&gt;     &gt;     &gt;     brax-110405-2018/08/16-08:36:28:575972-home-client-0-0-0<br>
&gt;&gt;&gt;     &gt;     &gt;     [2018-08-18 22:40:35.502620] W<br>
&gt;&gt;&gt;     &gt;     &gt;     [inodelk.c:499:pl_inodelk_log_cleanup] 0-home-server:<br>
&gt;&gt;&gt;     &gt;     releasing lock<br>
&gt;&gt;&gt;     &gt;     &gt;     on eaeb0398-fefd-486d-84a7-f13744d1cf10 held by<br>
&gt;&gt;&gt;     &gt;     &gt;     {client=0x7f83ec0b3ce0, pid=110423<br>
&gt;&gt;&gt;     lk-owner=d0fd5ffb427f0000}<br>
&gt;&gt;&gt;     &gt;     &gt;     [2018-08-18 22:40:35.502692] W<br>
&gt;&gt;&gt;     &gt;     &gt;     [entrylk.c:864:pl_entrylk_log_cleanup] 0-home-server:<br>
&gt;&gt;&gt;     &gt;     releasing lock<br>
&gt;&gt;&gt;     &gt;     &gt;     on faa93f7b-6c46-4251-b2b2-abcd2f2613e1 held by<br>
&gt;&gt;&gt;     &gt;     &gt;     {client=0x7f83ec0b3ce0, pid=110423<br>
&gt;&gt;&gt;     lk-owner=703dd4cc407f0000}<br>
&gt;&gt;&gt;     &gt;     &gt;     [2018-08-18 22:40:35.502719] W<br>
&gt;&gt;&gt;     &gt;     &gt;     [entrylk.c:864:pl_entrylk_log_cleanup] 0-home-server:<br>
&gt;&gt;&gt;     &gt;     releasing lock<br>
&gt;&gt;&gt;     &gt;     &gt;     on faa93f7b-6c46-4251-b2b2-abcd2f2613e1 held by<br>
&gt;&gt;&gt;     &gt;     &gt;     {client=0x7f83ec0b3ce0, pid=110423<br>
&gt;&gt;&gt;     lk-owner=703dd4cc407f0000}<br>
&gt;&gt;&gt;     &gt;     &gt;     [2018-08-18 22:40:35.505950] I [MSGID: 101055]<br>
&gt;&gt;&gt;     &gt;     &gt;     [client_t.c:443:gf_client_unref] 0-home-server: Shutting<br>
&gt;&gt;&gt;     down<br>
&gt;&gt;&gt;     &gt;     &gt;     connection<br>
&gt;&gt;&gt;     &gt;     brax-110405-2018/08/16-08:36:28:575972-home-client-0-0-0<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     Since I&#39;m running another replica 3 setup for oVirt for a<br>
&gt;&gt;&gt;     &gt;     long time<br>
&gt;&gt;&gt;     &gt;     &gt;     now which is completely stable I thought I made a mistake<br>
&gt;&gt;&gt;     &gt;     setting<br>
&gt;&gt;&gt;     &gt;     &gt;     different options at first. However even when I reset<br>
&gt;&gt;&gt;     &gt;     those options<br>
&gt;&gt;&gt;     &gt;     &gt;     I&#39;m able to reproduce the connection problem.<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     The unoptimized volume setup looks like this:<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     Volume Name: home<br>
&gt;&gt;&gt;     &gt;     &gt;     Type: Replicate<br>
&gt;&gt;&gt;     &gt;     &gt;     Volume ID: c92fa4cc-4a26-41ff-8c70-1dd07f733ac8<br>
&gt;&gt;&gt;     &gt;     &gt;     Status: Started<br>
&gt;&gt;&gt;     &gt;     &gt;     Snapshot Count: 0<br>
&gt;&gt;&gt;     &gt;     &gt;     Number of Bricks: 1 x 3 = 3<br>
&gt;&gt;&gt;     &gt;     &gt;     Transport-type: tcp<br>
&gt;&gt;&gt;     &gt;     &gt;     Bricks:<br>
&gt;&gt;&gt;     &gt;     &gt;     Brick1: sphere-four:/srv/gluster_home/brick<br>
&gt;&gt;&gt;     &gt;     &gt;     Brick2: sphere-five:/srv/gluster_home/brick<br>
&gt;&gt;&gt;     &gt;     &gt;     Brick3: sphere-six:/srv/gluster_home/brick<br>
&gt;&gt;&gt;     &gt;     &gt;     Options Reconfigured:<br>
&gt;&gt;&gt;     &gt;     &gt;     nfs.disable: on<br>
&gt;&gt;&gt;     &gt;     &gt;     transport.address-family: inet<br>
&gt;&gt;&gt;     &gt;     &gt;     cluster.quorum-type: auto<br>
&gt;&gt;&gt;     &gt;     &gt;     cluster.server-quorum-type: server<br>
&gt;&gt;&gt;     &gt;     &gt;     cluster.server-quorum-ratio: 50%<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     The following additional options were used before:<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     performance.cache-size: 5GB<br>
&gt;&gt;&gt;     &gt;     &gt;     client.event-threads: 4<br>
&gt;&gt;&gt;     &gt;     &gt;     server.event-threads: 4<br>
&gt;&gt;&gt;     &gt;     &gt;     cluster.lookup-optimize: on<br>
&gt;&gt;&gt;     &gt;     &gt;     features.cache-invalidation: on<br>
&gt;&gt;&gt;     &gt;     &gt;     performance.stat-prefetch: on<br>
&gt;&gt;&gt;     &gt;     &gt;     performance.cache-invalidation: on<br>
&gt;&gt;&gt;     &gt;     &gt;     network.inode-lru-limit: 50000<br>
&gt;&gt;&gt;     &gt;     &gt;     features.cache-invalidation-timeout: 600<br>
&gt;&gt;&gt;     &gt;     &gt;     performance.md-cache-timeout: 600<br>
&gt;&gt;&gt;     &gt;     &gt;     performance.parallel-readdir: on<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     In this case the gluster servers and also the client is<br>
&gt;&gt;&gt;     &gt;     using a<br>
&gt;&gt;&gt;     &gt;     &gt;     bonded network device running in adaptive load balancing<br>
&gt;&gt;&gt;     mode.<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     I&#39;ve tried using the debug option for the client mount.<br>
&gt;&gt;&gt;     &gt;     But except<br>
&gt;&gt;&gt;     &gt;     &gt;     for a ~0.5TB log file I didn&#39;t get information that seems<br>
&gt;&gt;&gt;     &gt;     &gt;     helpful to me.<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     Transferring just a couple of GB works without problems.<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     It may very well be that I&#39;m already blind to the obvious<br>
&gt;&gt;&gt;     &gt;     but after<br>
&gt;&gt;&gt;     &gt;     &gt;     many long running tests I can&#39;t find the crux in the setup.<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     Does anyone have an idea as how to approach this problem<br>
&gt;&gt;&gt;     &gt;     in a way<br>
&gt;&gt;&gt;     &gt;     &gt;     that sheds some useful information?<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     Any help is highly appreciated!<br>
&gt;&gt;&gt;     &gt;     &gt;     Cheers<br>
&gt;&gt;&gt;     &gt;     &gt;     Richard<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     --<br>
&gt;&gt;&gt;     &gt;     &gt;     /dev/null<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     _______________________________________________<br>
&gt;&gt;&gt;     &gt;     &gt;     Gluster-users mailing list<br>
&gt;&gt;&gt;     &gt;     &gt;     <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;<br>
&gt;&gt;&gt;     &gt;     &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt;     &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt;&gt;&gt;     &gt;     &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt;     &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;<br>
&gt;&gt;&gt;     &gt;     &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt;     &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;&gt;&gt;<br>
&gt;&gt;&gt;     &gt;     &gt;     <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;     &lt;<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a>&gt;<br>
&gt;&gt;&gt;     &gt;     &lt;<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;     &lt;<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a>&gt;&gt;<br>
&gt;&gt;&gt;     &gt;     &gt;   <br>
&gt;&gt;&gt;      &lt;<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;     &lt;<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a>&gt;<br>
&gt;&gt;&gt;     &gt;     &lt;<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;&gt;     &lt;<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a>&gt;&gt;&gt;<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     &gt;<br>
&gt;&gt;&gt;     &gt;<br>
&gt;&gt;&gt;     &gt;<br>
&gt;&gt;&gt;     &gt;     --<br>
&gt;&gt;&gt;     &gt;     /dev/null<br>
&gt;&gt;&gt;     &gt;<br>
&gt;&gt;&gt;     &gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;     -- <br>
&gt;&gt;&gt;     /dev/null<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt; <br>
&gt; <br>
&gt; <br>
&gt; <br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; <br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div>