<div dir="ltr">Hi,<div><br></div><div>So is the KVM or Vmware as the host(s)?  I basically have the same setup ie 3 x 1TB &quot;raid1&quot; nodes and VMs, but 1gb networking.  I do notice with vmware using NFS disk was pretty slow (40% of a single disk) but this was over 1gb networking which was clearly saturating.  Hence I am moving to KVM to use glusterfs hoping for better performance and bonding, it will be interesting to see which host type runs faster.</div><div><br></div><div>Which operating system is gluster on?  </div><div><br></div><div>Did you do iperf between all nodes?</div><div><br></div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On 1 May 2018 at 00:14, Tony Hoyle <span dir="ltr">&lt;<a href="mailto:tony@hoyle.me.uk" target="_blank">tony@hoyle.me.uk</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi<br>
<br>
I&#39;m trying to setup a 3 node gluster, and am hitting huge performance<br>
bottlenecks.<br>
<br>
The 3 servers are connected over 10GB and glusterfs is set to create a 3<br>
node replica.<br>
<br>
With a single VM performance was poor, but I could have lived with it.<br>
<br>
I tried to stress it by putting copies of a bunch of VMs on the servers<br>
and seeing what happened with parallel nodes..  network load never broke<br>
13Mbps and disk load peaked at under 1Mbps.  VMs were so slow that<br>
services timed out during boot causing failures.<br>
<br>
Checked the network with iperf and it reached 9.7Gb so the hardware is<br>
fine.. it just seems that for some reason glusterfs just isn&#39;t using it.<br>
<br>
gluster volume top gv0 read-perf shows 0Mbps for all files, although I&#39;m<br>
not sure whether the command is working.<br>
<br>
There&#39;s probably a magic setting somewhere, but I&#39;ve been a couple of<br>
days trying to find it now..<br>
<br>
Tony<br>
<br>
stats:<br>
  Â Block Size:  Â  Â  Â  Â  Â  Â  Â  512b+  Â  Â  Â  Â  Â  Â  Â  1024b+<br>
2048b+<br>
 No. of Reads:  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 2<br>
  Â  Â 0<br>
No. of Writes:  Â  Â  Â  Â  Â  Â  Â  Â  Â 40  Â  Â  Â  Â  Â  Â  Â  Â  Â 141<br>
  Â 399<br>
<br>
  Â Block Size:  Â  Â  Â  Â  Â  Â  Â 4096b+  Â  Â  Â  Â  Â  Â  Â  8192b+<br>
16384b+<br>
 No. of Reads:  Â  Â  Â  Â  Â  Â  Â  Â  173  Â  Â  Â  Â  Â  Â  Â  Â  Â  24<br>
  Â  Â 4<br>
No. of Writes:  Â  Â  Â  Â  Â  Â  Â  18351  Â  Â  Â  Â  Â  Â  Â  Â  5049<br>
  2478<br>
<br>
  Â Block Size:  Â  Â  Â  Â  Â  Â  32768b+  Â  Â  Â  Â  Â  Â  Â 65536b+<br>
131072b+<br>
 No. of Reads:  Â  Â  Â  Â  Â  Â  Â  Â  Â 12  Â  Â  Â  Â  Â  Â  Â  Â  Â 113<br>
  Â  Â 0<br>
No. of Writes:  Â  Â  Â  Â  Â  Â  Â  Â 1640  Â  Â  Â  Â  Â  Â  Â  Â  Â 648<br>
  Â 200<br>
<br>
  Â Block Size:  Â  Â  Â  Â  Â  Â 262144b+  Â  Â  Â  Â  Â  Â  524288b+<br>
1048576b+<br>
 No. of Reads:  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0<br>
  Â  Â 0<br>
No. of Writes:  Â  Â  Â  Â  Â  Â  Â  Â  329  Â  Â  Â  Â  Â  Â  Â  Â  Â  55<br>
  Â 139<br>
<br>
  Â Block Size:  Â  Â  Â  Â  Â  2097152b+<br>
 No. of Reads:  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
No. of Writes:  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
 %-latency  Â Avg-latency  Â Min-Latency  Â Max-Latency  Â No. of calls<br>
  Â Fop<br>
 ---------  Â -----------  Â -----------  Â -----------  Â ------------<br>
  ----<br>
  Â  Â  0.00  Â  Â  Â 0.00 us  Â  Â  Â 0.00 us  Â  Â  Â 0.00 us  Â  Â  Â  Â  Â  Â 41<br>
RELEASE<br>
  Â  Â  0.00  Â  Â  Â 0.00 us  Â  Â  Â 0.00 us  Â  Â  Â 0.00 us  Â  Â  Â  Â  Â  Â  6<br>
RELEASEDIR<br>
  Â  Â  0.00  Â  Â  Â 3.43 us  Â  Â  Â 2.65 us  Â  Â  Â 4.10 us  Â  Â  Â  Â  Â  Â  6<br>
OPENDIR<br>
  Â  Â  0.00  Â  Â 217.85 us  Â  Â 217.85 us  Â  Â 217.85 us  Â  Â  Â  Â  Â  Â  1<br>
SETATTR<br>
  Â  Â  0.00  Â  Â  66.38 us  Â  Â  49.47 us  Â  Â  80.57 us  Â  Â  Â  Â  Â  Â  4<br>
  SEEK<br>
  Â  Â  0.00  Â  Â 394.18 us  Â  Â 394.18 us  Â  Â 394.18 us  Â  Â  Â  Â  Â  Â  1<br>
FTRUNCATE<br>
  Â  Â  0.00  Â  Â 116.68 us  Â  Â  29.88 us  Â  Â 186.25 us  Â  Â  Â  Â  Â  Â 16<br>
GETXATTR<br>
  Â  Â  0.00  Â  Â 397.32 us  Â  Â 267.18 us  Â  Â 540.38 us  Â  Â  Â  Â  Â  Â 10<br>
XATTROP<br>
  Â  Â  0.00  Â  Â 553.09 us  Â  Â 244.97 us  Â  1242.98 us  Â  Â  Â  Â  Â  Â 12<br>
READDIR<br>
  Â  Â  0.00  Â  Â 201.60 us  Â  Â  69.61 us  Â  Â 744.71 us  Â  Â  Â  Â  Â  Â 41<br>
  OPEN<br>
  Â  Â  0.00  Â  Â 734.96 us  Â  Â  75.05 us  Â 37399.38 us  Â  Â  Â  Â  Â  328<br>
  READ<br>
  Â  Â  0.01  Â  1750.65 us  Â  Â  33.99 us  750562.48 us  Â  Â  Â  Â  Â  591<br>
LOOKUP<br>
  Â  Â  0.02  Â  2972.84 us  Â  Â  30.72 us  788018.47 us  Â  Â  Â  Â  Â  496<br>
STATFS<br>
  Â  Â  0.03  Â 10951.33 us  Â  Â  35.36 us  695155.13 us  Â  Â  Â  Â  Â  166<br>
  STAT<br>
  Â  Â  0.42  Â  2574.98 us  Â  Â 208.73 us 1710282.73 us  Â  Â  Â  Â  11877<br>
FXATTROP<br>
  Â  Â  2.80  Â  Â 609.20 us  Â  Â 468.51 us  321422.91 us  Â  Â  Â  Â 333946<br>
RCHECKSUM<br>
  Â  Â  5.04  Â  Â 548.76 us  Â  Â  14.83 us 76288179.46 us  Â  Â  Â  Â 668188<br>
INODELK<br>
  Â  Â 18.46  149940.70 us  Â  Â  13.59 us 79966278.04 us  Â  Â  Â  Â  Â 8949<br>
FINODELK<br>
  Â  Â 20.04  395073.91 us  Â  Â  84.99 us 3835355.67 us  Â  Â  Â  Â  Â 3688<br>
 FSYNC<br>
  Â  Â 53.17  131171.66 us  Â  Â  85.76 us 3838020.34 us  Â  Â  Â  Â  29470<br>
 WRITE<br>
  Â  Â  0.00  Â  Â  Â 0.00 us  Â  Â  Â 0.00 us  Â  Â  Â 0.00 us  Â  Â  Â  Â  Â 7238<br>
UPCALL<br>
  Â  Â  0.00  Â  Â  Â 0.00 us  Â  Â  Â 0.00 us  Â  Â  Â 0.00 us  Â  Â  Â  Â  Â 7238<br>
CI_IATT<br>
<br>
  Â  Duration: 1655 seconds<br>
  Â Data Read: 8804864 bytes<br>
Data Written: 612756480 bytes<br>
<br>
config:<br>
Volume Name: gv0<br>
Type: Replicate<br>
Volume ID: a0b6635a-ae48-491b-834a-<wbr>08e849e87642<br>
Status: Started<br>
Snapshot Count: 0<br>
Number of Bricks: 1 x 3 = 3<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: barbelith10:/tank/vmdata/gv0<br>
Brick2: rommel10:/tank/vmdata/gv0<br>
Brick3: panzer10:/tank/vmdata/gv0<br>
Options Reconfigured:<br>
diagnostics.count-fop-hits: on<br>
diagnostics.latency-<wbr>measurement: on<br>
features.cache-invalidation: on<br>
nfs.disable: on<br>
cluster.server-quorum-type: server<br>
cluster.quorum-type: auto<br>
network.remote-dio: enable<br>
cluster.eager-lock: enable<br>
performance.stat-prefetch: off<br>
performance.io-cache: off<br>
performance.read-ahead: off<br>
performance.quick-read: off<br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
</blockquote></div><br></div>