<div dir="auto"><div>This high memory consumption is not normal. Looks like it&#39;s a memory leak. Is it possible to try it on test setup with gluster-6rc? What is the kind of workload that goes into fuse mount? Large files or small files? We need the following information to debug further: </div><div dir="auto">- Gluster volume info output</div><div dir="auto">- Statedump of the Gluster fuse mount process consuming 44G ram.</div><div dir="auto"><br></div><div dir="auto">Regards,</div><div dir="auto">Poornima</div><div dir="auto"><br><br><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">On Sat, Mar 2, 2019, 3:40 AM Diego Remolina &lt;<a href="mailto:dijuremo@gmail.com">dijuremo@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div><div>I am using glusterfs with two servers as a file server sharing files via samba and ctdb. I cannot use samba vfs gluster plugin, due to bug in current Centos version of samba. So I am mounting via fuse and exporting the volume to samba from the mount point.</div><div><br></div><div>Upon initial boot, the server where samba is exporting files climbs up to ~10GB RAM within a couple hours of use. From then on, it is a constant slow memory increase. In the past with gluster 3.8.x we had to reboot the servers at around 30 days . With gluster 4.1.6 we are getting up to 48 days, but RAM use is at 48GB out of 64GB. Is this normal?</div><div><br></div><div>The particular versions are below,</div><div><br></div><div><div>[root@ysmha01 home]# uptime</div><div>16:59:39 up 48 days,  9:56,  1 user,  load average: 3.75, 3.17, 3.00</div></div><div>[root@ysmha01 home]# rpm -qa | grep gluster<br></div><div><div>centos-release-gluster41-1.0-3.el7.centos.noarch</div><div>glusterfs-server-4.1.6-1.el7.x86_64</div><div>glusterfs-api-4.1.6-1.el7.x86_64</div><div>centos-release-gluster-legacy-4.0-2.el7.centos.noarch</div><div>glusterfs-4.1.6-1.el7.x86_64</div><div>glusterfs-client-xlators-4.1.6-1.el7.x86_64</div><div>libvirt-daemon-driver-storage-gluster-3.9.0-14.el7_5.8.x86_64</div><div>glusterfs-fuse-4.1.6-1.el7.x86_64</div><div>glusterfs-libs-4.1.6-1.el7.x86_64</div><div>glusterfs-rdma-4.1.6-1.el7.x86_64</div><div>glusterfs-cli-4.1.6-1.el7.x86_64</div><div>samba-vfs-glusterfs-4.8.3-4.el7.x86_64</div><div>[root@ysmha01 home]# rpm -qa | grep samba</div><div>samba-common-tools-4.8.3-4.el7.x86_64</div><div>samba-client-libs-4.8.3-4.el7.x86_64</div><div>samba-libs-4.8.3-4.el7.x86_64</div><div>samba-4.8.3-4.el7.x86_64</div><div>samba-common-libs-4.8.3-4.el7.x86_64</div><div>samba-common-4.8.3-4.el7.noarch</div><div>samba-vfs-glusterfs-4.8.3-4.el7.x86_64</div><div>[root@ysmha01 home]# cat /etc/redhat-release</div><div>CentOS Linux release 7.6.1810 (Core)</div></div><div><br></div><div>RAM view using top<br></div><div>Tasks: 398 total,   1 running, 397 sleeping,   0 stopped,   0 zombie</div><div>%Cpu(s):  7.0 us,  9.3 sy,  1.7 ni, 71.6 id,  9.7 wa,  0.0 hi,  0.8 si,  0.0 st</div><div>KiB Mem : 65772000 total,  1851344 free, 60487404 used,  3433252 buff/cache</div><div>KiB Swap:        0 total,        0 free,        0 used.  3134316 avail Mem</div><div><br></div><div>  PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND</div><div> 9953 root      20   0 3727912 946496   3196 S 150.2  1.4  38626:27 glusterfsd</div><div> 9634 root      20   0   48.1g  47.2g   3184 S  96.3 75.3  29513:55 glusterfs</div><div>14485 root      20   0 3404140  63780   2052 S  80.7  0.1   1590:13 glusterfs</div></div><div><br></div><div><div>[root@ysmha01 ~]# gluster v status export</div><div>Status of volume: export</div><div>Gluster process                             TCP Port  RDMA Port  Online  Pid</div><div>------------------------------------------------------------------------------</div><div>Brick 10.0.1.7:/bricks/hdds/brick           49157     0          Y       13986</div><div>Brick 10.0.1.6:/bricks/hdds/brick           49153     0          Y       9953</div><div>Self-heal Daemon on localhost               N/A       N/A        Y       14485</div><div>Self-heal Daemon on 10.0.1.7                N/A       N/A        Y       21934</div><div>Self-heal Daemon on 10.0.1.5                N/A       N/A        Y       4598</div><div><br></div><div>Task Status of Volume export</div><div>------------------------------------------------------------------------------</div><div>There are no active volume tasks</div></div><div><br></div><div><br></div><div><br></div></div></div></div></div></div><div id="m_5816452762692804512DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2"><br>
<table style="border-top:1px solid #d3d4de">
        <tbody><tr>
        <td style="width:55px;padding-top:13px"><a href="https://www.avast.com/sig-email?utm_medium=email&amp;utm_source=link&amp;utm_campaign=sig-email&amp;utm_content=webmail&amp;utm_term=icon" target="_blank" rel="noreferrer"><img src="https://ipmcdn.avast.com/images/icons/icon-envelope-tick-round-orange-animated-no-repeat-v1.gif" alt="" width="46" height="29" style="width:46px;height:29px"></a></td>
                <td style="width:470px;padding-top:12px;color:#41424e;font-size:13px;font-family:Arial,Helvetica,sans-serif;line-height:18px">Virus-free. <a href="https://www.avast.com/sig-email?utm_medium=email&amp;utm_source=link&amp;utm_campaign=sig-email&amp;utm_content=webmail&amp;utm_term=link" style="color:#4453ea" target="_blank" rel="noreferrer">www.avast.com</a>
                </td>
        </tr>
</tbody></table><a href="#m_5816452762692804512_DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2" width="1" height="1" rel="noreferrer"></a></div>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank" rel="noreferrer">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div></div></div>