<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"><html>
<head>
  <meta name="Generator" content="Zarafa WebAccess v7.1.14-51822">
  <meta http-equiv="Content-Type" content="text/html; charset=utf-8">
  <title>RE: [Gluster-users] Extremely slow du</title>
  <style type="text/css">
      body
      {
        font-family: Arial, Verdana, Sans-Serif ! important;
        font-size: 12px;
        padding: 5px 5px 5px 5px;
        margin: 0px;
        border-style: none;
        background-color: #ffffff;
      }

      p, ul, li
      {
        margin-top: 0px;
        margin-bottom: 0px;
      }
  </style>
</head>
<body>
<p>Hi,</p><p>&nbsp;</p><p>&nbsp;</p><p>I also noticed disappearing of files with the combination of certain settings. If you use cluster.readdir-optimize but not some of the other settings, they don&#39;t disappear.</p><p>&nbsp;</p><p>Unfortunately can&#39;t remember which setting was conflicting...</p><p>&nbsp;</p><p>&nbsp;</p><p>Performance wise I don&#39;t see difference between 3.10 and 3.11 over here. Didn&#39;t test recently with 3.8.</p><p><br /><br />Regards</p><p>Jo</p><p>&nbsp;</p><p><br />&nbsp;</p><blockquote style="border-left: 2px solid #325FBA; padding-left: 5px;margin-left:5px;">-----Original message-----<br /><strong>From:</strong>        Vijay Bellur &lt;vbellur@redhat.com&gt;<br /><strong>Sent:</strong>        Tue 11-07-2017 17:22<br /><strong>Subject:</strong>        Re: [Gluster-users] Extremely slow du<br /><strong>To:</strong>        mohammad kashif &lt;kashif.alig@gmail.com&gt;; Raghavendra Gowdappa &lt;rgowdapp@redhat.com&gt;; Poornima Gurusiddaiah &lt;pgurusid@redhat.com&gt;; <br /><strong>CC:</strong>        gluster-users Discussion List &lt;Gluster-users@gluster.org&gt;; <br />Hi Kashif,<br /><br />Thank you for your feedback! Do you have some data on the nature of <br />performance improvement observed with 3.11 in the new setup?<br /><br />Adding Raghavendra and Poornima for validation of configuration and help <br />with identifying why certain files disappeared from the mount point <br />after enabling readdir-optimize.<br /><br />Regards,<br />Vijay<br /><br />On 07/11/2017 11:06 AM, mohammad kashif wrote:<br />&gt; Hi Vijay and Experts<br />&gt;<br />&gt; I didn&#39;t want to experiment with my production setup so started &nbsp;a<br />&gt; parallel system with two server and around 80TB storage. &nbsp;First<br />&gt; configured with gluster 3.8 and had the same lookup performance issue.<br />&gt; Then upgraded to 3.11 as you suggested and it made huge improvement in<br />&gt; lookup time. I also did some more optimization as suggested in other<br />&gt; threads.<br />&gt; Now I am going to update my production server. I am planning to use<br />&gt; following &nbsp;optimization option, it would be very useful if you can point<br />&gt; out any inconsistency or suggest some other options. My production setup<br />&gt; has 5 servers consisting of &nbsp;400TB storage and around 80 million files<br />&gt; of varying lengths.<br />&gt;<br />&gt; Options Reconfigured:<br />&gt; server.event-threads: 4<br />&gt; client.event-threads: 4<br />&gt; cluster.lookup-optimize: on<br />&gt; cluster.readdir-optimize: off<br />&gt; performance.client-io-threads: on<br />&gt; performance.cache-size: 1GB<br />&gt; performance.parallel-readdir: on<br />&gt; performance.md-cache-timeout: 600<br />&gt; performance.cache-invalidation: on<br />&gt; performance.stat-prefetch: on<br />&gt; features.cache-invalidation-timeout: 600<br />&gt; features.cache-invalidation: on<br />&gt; nfs.disable: on<br />&gt; performance.readdir-ahead: on<br />&gt; transport.address-family: inet<br />&gt; auth.allow: 163.1.136.*<br />&gt; diagnostics.latency-measurement: on<br />&gt; diagnostics.count-fop-hits: on<br />&gt;<br />&gt; I found that setting cluster.readdir-optimize to &#39;on&#39; made some files<br />&gt; disappear from client !<br />&gt;<br />&gt; Thanks<br />&gt;<br />&gt; Kashif<br />&gt;<br />&gt;<br />&gt;<br />&gt; On Sun, Jun 18, 2017 at 4:57 PM, Vijay Bellur &lt;vbellur@redhat.com<br />&gt; &lt;mailto:vbellur@redhat.com&gt;&gt; wrote:<br />&gt;<br />&gt; &nbsp; &nbsp; Hi Mohammad,<br />&gt;<br />&gt; &nbsp; &nbsp; A lot of time is being spent in addressing metadata calls as<br />&gt; &nbsp; &nbsp; expected. Can you consider testing out with 3.11 with md-cache [1]<br />&gt; &nbsp; &nbsp; and readdirp [2] improvements?<br />&gt;<br />&gt; &nbsp; &nbsp; Adding Poornima and Raghavendra who worked on these enhancements to<br />&gt; &nbsp; &nbsp; help out further.<br />&gt;<br />&gt; &nbsp; &nbsp; Thanks,<br />&gt; &nbsp; &nbsp; Vijay<br />&gt;<br />&gt; &nbsp; &nbsp; [1] https://gluster.readthedocs.io/en/latest/release-notes/3.9.0/<br />&gt; &nbsp; &nbsp; &lt;https://gluster.readthedocs.io/en/latest/release-notes/3.9.0/&gt;<br />&gt;<br />&gt; &nbsp; &nbsp; [2] https://github.com/gluster/glusterfs/issues/166<br />&gt; &nbsp; &nbsp; &lt;https://github.com/gluster/glusterfs/issues/166&gt;<br />&gt;<br />&gt; &nbsp; &nbsp; On Fri, Jun 16, 2017 at 2:49 PM, mohammad kashif<br />&gt; &nbsp; &nbsp; &lt;kashif.alig@gmail.com &lt;mailto:kashif.alig@gmail.com&gt;&gt; wrote:<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; Hi Vijay<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; Did you manage to look into the gluster profile logs ?<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; Thanks<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; Kashif<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; On Mon, Jun 12, 2017 at 11:40 AM, mohammad kashif<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;kashif.alig@gmail.com &lt;mailto:kashif.alig@gmail.com&gt;&gt; wrote:<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Hi Vijay<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; I have enabled client profiling and used this script<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; https://github.com/bengland2/gluster-profile-analysis/blob/master/gvp-client.sh<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;https://github.com/bengland2/gluster-profile-analysis/blob/master/gvp-client.sh&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; to extract data. I am attaching output files. I don&#39;t have<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; any reference data to compare with my output. Hopefully you<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; can make some sense out of it.<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; On Sat, Jun 10, 2017 at 10:47 AM, Vijay Bellur<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;vbellur@redhat.com &lt;mailto:vbellur@redhat.com&gt;&gt; wrote:<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Would it be possible for you to turn on client profiling<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; and then run du? Instructions for turning on client<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; profiling can be found at [1]. Providing the client<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; profile information can help us figure out where the<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; latency could be stemming from.<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Regards,<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Vijay<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; [1] https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Performance%20Testing/#client-side-profiling<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Performance%20Testing/#client-side-profiling&gt;<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; On Fri, Jun 9, 2017 at 7:22 PM, mohammad kashif<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;kashif.alig@gmail.com &lt;mailto:kashif.alig@gmail.com&gt;&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; wrote:<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Hi Vijay<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Thanks for your quick response. I am using gluster<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3.8.11 on &nbsp;Centos 7 servers<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; glusterfs-3.8.11-1.el7.x86_64<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; clients are centos 6 but I tested with a centos 7<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; client as well and results didn&#39;t change<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; gluster volume info Volume Name: atlasglust<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Type: Distribute<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Volume ID: fbf0ebb8-deab-4388-9d8a-f722618a624b<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Status: Started<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Snapshot Count: 0<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Number of Bricks: 5<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Transport-type: tcp<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Bricks:<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Brick1: pplxgluster01.x.y.z:/glusteratlas/brick001/gv0<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Brick2: pplxgluster02..x.y.z:/glusteratlas/brick002/gv0<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Brick3: pplxgluster03.x.y.z:/glusteratlas/brick003/gv0<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Brick4: pplxgluster04.x.y.z:/glusteratlas/brick004/gv0<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Brick5: pplxgluster05.x.y.z:/glusteratlas/brick005/gv0<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Options Reconfigured:<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; nfs.disable: on<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; performance.readdir-ahead: on<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; transport.address-family: inet<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; auth.allow: x.y.z<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; I am not using directory quota.<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Please let me know if you require some more info<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Thanks<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Kashif<br />&gt;<br />&gt;<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; On Fri, Jun 9, 2017 at 2:34 PM, Vijay Bellur<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;vbellur@redhat.com &lt;mailto:vbellur@redhat.com&gt;&gt; wrote:<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Can you please provide more details about your<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; volume configuration and the version of gluster<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; that you are using?<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Regards,<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Vijay<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; On Fri, Jun 9, 2017 at 5:35 PM, mohammad kashif<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;kashif.alig@gmail.com<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;mailto:kashif.alig@gmail.com&gt;&gt; wrote:<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Hi<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; I have just moved our 400 TB HPC storage<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; from lustre to gluster. It is part of a<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; research institute and users have very small<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; files to &nbsp;big files ( few KB to 20GB) . Our<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; setup consists of 5 servers, each with 96TB<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; RAID 6 disks. All servers are connected<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; through 10G ethernet but not all clients.<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Gluster volumes are distributed without any<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; replication. There are approximately 80<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; million files in file system.<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; I am mounting using glusterfs on &nbsp;clients.<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; I have copied everything from lustre to<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; gluster but old file system exist so I can<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; compare.<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; The problem, I am facing is extremely slow<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; du on even a small directory. Also the time<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; taken is substantially different each time.<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; I tried du from same client on &nbsp;a particular<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; directory twice and got these results.<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; time du -sh /data/aa/bb/cc<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3.7G /data/aa/bb/cc<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; real 7m29.243s<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; user 0m1.448s<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; sys 0m7.067s<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; time du -sh /data/aa/bb/cc<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3.7G &nbsp; &nbsp; &nbsp;/data/aa/bb/cc<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; real 16m43.735s<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; user 0m1.097s<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; sys 0m5.802s<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 16m and 7m is too long for a 3.7 G<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; directory. I must mention that the directory<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; contains huge number of files (208736)<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; but running du on same directory on old data<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; gives this result<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; time du -sh /olddata/aa/bb/cc<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4.0G /olddata/aa/bb/cc<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; real 3m1.255s<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; user 0m0.755s<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; sys 0m38.099s<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; much better if I run same command again<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; time du -sh /olddata/aa/bb/cc<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4.0G /olddata/aa/bb/cc<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; real 0m8.309s<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; user 0m0.313s<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; sys 0m7.755s<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Is there anything I can do to improve this<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; performance? I would also like hear from<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; some one who is running same kind of setup.<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Thanks<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Kashif<br />&gt;<br />&gt;<br />&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; _______________________________________________<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Gluster-users mailing list<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Gluster-users@gluster.org<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;mailto:Gluster-users@gluster.org&gt;<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; http://lists.gluster.org/mailman/listinfo/gluster-users<br />&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;http://lists.gluster.org/mailman/listinfo/gluster-users&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br /><br />_______________________________________________<br />Gluster-users mailing list<br />Gluster-users@gluster.org<br />http://lists.gluster.org/mailman/listinfo/gluster-users<br /></blockquote>
</body>
</html>