<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  </head>
  <body>
    <p>Hi,</p>
    <p>It has been a while since I ran NFS. <br>
    </p>
    <p>You may be able to reduce the ganesha cache with
      "Entries_HWMark", default it is set to 100000</p>
    <p><a class="moz-txt-link-freetext" href="https://www.mankier.com/8/ganesha-cache-config">https://www.mankier.com/8/ganesha-cache-config</a><br>
    </p>
    <blockquote>
      <dl>
        <dt><strong>Entries_HWMark(uint32, range 1 to UINT32_MAX,
            default 100000)</strong></dt>
        <dd>
          <p>The point at which object cache entries will start being
            reused.</p>
        </dd>
      </dl>
    </blockquote>
    <p><a class="moz-txt-link-freetext" href="https://github.com/nfs-ganesha/nfs-ganesha/issues/377">https://github.com/nfs-ganesha/nfs-ganesha/issues/377</a></p>
    <blockquote>
      <p>I have explored to apply with cachinode configuration as below:</p>
      <p>CacheInode<br>
        {<br>
        Attr_Expiration_Time = 600;<br>
        Entries_HWMark = 50000;<br>
        LRU_Run_Interval = 90;<br>
        FD_HWMark_Percent = 60;<br>
        FD_LWMark_Percent = 20;<br>
        FD_Limit_Percent = 90;<br>
        }</p>
      <p>the above is what I come up after reading the man page. and the
        result in our test environment, memory usage maintain at ~80%.<br>
        The work load on the client of this environment is running 4
        scripts with the following jobs:</p>
      <ul>
        <li>infinitely create 10k&amp;500k files in a loop</li>
        <li>infinitely list all created files in a loop</li>
        <li>infinitely copy then read a 150k text file</li>
        <li>delete all created/copied files every 60sec,</li>
      </ul>
      <p>The GlusterFS/Ganesha setup and VM specs for the test
        environment is below:</p>
      <p>3 vmware VMs<br>
        2 vCPU<br>
        4 G memory</p>
      <p>only 1 volume was shared</p>
      <p>Before we applied the above settings ganesha.nfsd was killed by
        oom_killer if the settings when the cacheinode settings above
        was not loaded after a couple of day that the 4 scripts
        continuously running.</p>
    </blockquote>
    <p>Hope this helps.</p>
    <p>Regards,</p>
    <p>Jorick Astrego<br>
    </p>
    <p><br>
    </p>
    <div class="moz-cite-prefix">On 3/21/20 7:29 AM, Strahil Nikolov
      wrote:<br>
    </div>
    <blockquote type="cite"
      cite="mid:A9E05855-BAEC-4709-B945-1B5F70D30B45@yahoo.com">
      <pre class="moz-quote-pre" wrap="">On March 21, 2020 6:34:45 AM GMT+02:00, Olivier <a class="moz-txt-link-rfc2396E" href="mailto:Olivier.Nicole@cs.ait.ac.th">&lt;Olivier.Nicole@cs.ait.ac.th&gt;</a> wrote:
</pre>
      <blockquote type="cite">
        <pre class="moz-quote-pre" wrap="">Hello,

I am running a small Gluster environment with only 4 nodes. And am
wondering how my gluster machines should be sized: they are 2CPU and
4GB
RAM, but as soon as I connect a client to NFS Ganesha it will start
swapping like crazy and soon Ganesha will die.

I have been running an NFS server with less than 4GB RAM and 5 or 6
clients for years without issue.

Is there a way I can configure both gluster and ganesha to be less
voracious with RAM?

TIA,

Olivier
</pre>
      </blockquote>
      <pre class="moz-quote-pre" wrap="">
Hi Oliver,

Have you checked if your distribution is building the gluster packages  with the old NFS support?
If it does, then you can use the built-in NFS server which requires less ram.

About your question, I'm not sure you can control  that. Have you tried  using FUSE client on your  end systems ?

Best Regards,
Strahil Nikolov
________



Community Meeting Calendar:

Schedule -
Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC
Bridge: <a class="moz-txt-link-freetext" href="https://bluejeans.com/441850968">https://bluejeans.com/441850968</a>

Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a>
</pre>
    </blockquote>
  <BR />
<BR />
<b style="color:#604c78"></b><br><br><span style="color:#604c78;"><font color="000000"><span style="mso-fareast-language:en-gb;" lang="NL">Met vriendelijke groet, With kind regards,<br><br>Jorick Astrego<br></span></font></span><b style="color:#604c78"><br>Netbulae Virtualization Experts </b><br><hr style="border:none;border-top:1px solid #ccc;"><table style="width: 522px"><tbody><tr><td style="width: 130px;font-size: 10px">Tel:  053 20 30 270</td>    <td style="width: 130px;font-size: 10px">info@netbulae.eu</td>    <td style="width: 130px;font-size: 10px">Staalsteden 4-3A</td>    <td style="width: 130px;font-size: 10px">KvK 08198180</td></tr><tr>    <td style="width: 130px;font-size: 10px">Fax: 053 20 30 271</td>    <td style="width: 130px;font-size: 10px">www.netbulae.eu</td>    <td style="width: 130px;font-size: 10px">7547 TA Enschede</td>    <td style="width: 130px;font-size: 10px">BTW NL821234584B01</td></tr></tbody></table><br><hr style="border:none;border-top:1px solid #ccc;"><BR />
</body>
</html>