<div dir="ltr"><div>Hi Strahil,</div><div><br></div><div>Our volume options are as below. Thanks for the suggestion to upgrade to version 6 or 7. We could do that be simply removing the current installation and installing the new one (since it&#39;s not live right now). We might have to convince the customer that it&#39;s likely to succeed though, as at the moment I think they believe that GFS is not going to work for them.</div><div><br></div><div>Option Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â Value Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>------ Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â ----- Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.lookup-unhashed Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.lookup-optimize Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.min-free-disk Â  Â  Â  Â  Â  Â  Â  Â  Â  10% Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.min-free-inodes Â  Â  Â  Â  Â  Â  Â  Â  5% Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.rebalance-stats Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.subvols-per-directory Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.readdir-optimize Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.rsync-hash-regex Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.extra-hash-regex Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.dht-xattr-name Â  Â  Â  Â  Â  Â  Â  Â  Â trusted.glusterfs.dht Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.randomize-hash-range-by-gfid Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.rebal-throttle Â  Â  Â  Â  Â  Â  Â  Â  Â normal Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.lock-migration Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.force-migration Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.local-volume-name Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.weighted-rebalance Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.switch-pattern Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.entry-change-log Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.read-subvolume Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.read-subvolume-index Â  Â  Â  Â  Â  Â -1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.read-hash-mode Â  Â  Â  Â  Â  Â  Â  Â  Â 1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.background-self-heal-count Â  Â  Â 8 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.metadata-self-heal Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.data-self-heal Â  Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.entry-self-heal Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.self-heal-daemon Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.heal-timeout Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 600 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.self-heal-window-size Â  Â  Â  Â  Â  1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.data-change-log Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.metadata-change-log Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.data-self-heal-algorithm Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.eager-lock Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>disperse.eager-lock Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>disperse.other-eager-lock Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>disperse.eager-lock-timeout Â  Â  Â  Â  Â  Â  1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>disperse.other-eager-lock-timeout Â  Â  Â  1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.quorum-type Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  none Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.quorum-count Â  Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.choose-local Â  Â  Â  Â  Â  Â  Â  Â  Â  Â true Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.self-heal-readdir-size Â  Â  Â  Â  Â 1KB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.post-op-delay-secs Â  Â  Â  Â  Â  Â  Â 1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.ensure-durability Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.consistent-metadata Â  Â  Â  Â  Â  Â  no Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.heal-wait-queue-length Â  Â  Â  Â  Â 128 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.favorite-child-policy Â  Â  Â  Â  Â  none Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.full-lock Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  yes Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.stripe-block-size Â  Â  Â  Â  Â  Â  Â  128KB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.stripe-coalesce Â  Â  Â  Â  Â  Â  Â  Â  true Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.latency-measurement Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.dump-fd-stats Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.count-fop-hits Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.brick-log-level Â  Â  Â  Â  Â  Â  INFO Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.client-log-level Â  Â  Â  Â  Â  Â INFO Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.brick-sys-log-level Â  Â  Â  Â  CRITICAL Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.client-sys-log-level Â  Â  Â  Â CRITICAL Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.brick-logger Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.client-logger Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.brick-log-format Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.client-log-format Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.brick-log-buf-size Â  Â  Â  Â  Â 5 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.client-log-buf-size Â  Â  Â  Â  5 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.brick-log-flush-timeout Â  Â  120 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.client-log-flush-timeout Â  Â 120 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.stats-dump-interval Â  Â  Â  Â  0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.fop-sample-interval Â  Â  Â  Â  0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.stats-dump-format Â  Â  Â  Â  Â  json Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>diagnostics.fop-sample-buf-size Â  Â  Â  Â  65535 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>diagnostics.stats-dnscache-ttl-sec Â  Â  Â 86400 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.cache-max-file-size Â  Â  Â  Â  0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.cache-min-file-size Â  Â  Â  Â  0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.cache-refresh-timeout Â  Â  Â  1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.cache-priority Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.cache-size Â  Â  Â  Â  Â  Â  Â  Â  Â 32MB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.io-thread-count Â  Â  Â  Â  Â  Â  16 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.high-prio-threads Â  Â  Â  Â  Â  16 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.normal-prio-threads Â  Â  Â  Â  16 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.low-prio-threads Â  Â  Â  Â  Â  Â 16 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.least-prio-threads Â  Â  Â  Â  Â 1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.enable-least-priority Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.iot-watchdog-secs Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.iot-cleanup-disconnected-reqsoff Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.iot-pass-through Â  Â  Â  Â  Â  Â false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.io-cache-pass-through Â  Â  Â  false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.cache-size Â  Â  Â  Â  Â  Â  Â  Â  Â 128MB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.qr-cache-timeout Â  Â  Â  Â  Â  Â 1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.cache-invalidation Â  Â  Â  Â  Â false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.ctime-invalidation Â  Â  Â  Â  Â false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.flush-behind Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.nfs.flush-behind Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.write-behind-window-size Â  Â 1MB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.resync-failed-syncs-after-fsyncoff Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nfs.write-behind-window-size1MB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.strict-o-direct Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nfs.strict-o-direct Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.strict-write-ordering Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nfs.strict-write-ordering Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.write-behind-trickling-writeson Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.aggregate-size Â  Â  Â  Â  Â  Â  Â 128KB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nfs.write-behind-trickling-writeson Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.lazy-open Â  Â  Â  Â  Â  Â  Â  Â  Â  yes Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.read-after-open Â  Â  Â  Â  Â  Â  yes Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.open-behind-pass-through Â  Â false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.read-ahead-page-count Â  Â  Â  4 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.read-ahead-pass-through Â  Â  false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.readdir-ahead-pass-through Â false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.md-cache-pass-through Â  Â  Â  false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.md-cache-timeout Â  Â  Â  Â  Â  Â 1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.cache-swift-metadata Â  Â  Â  Â true Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.cache-samba-metadata Â  Â  Â  Â false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.cache-capability-xattrs Â  Â  true Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.cache-ima-xattrs Â  Â  Â  Â  Â  Â true Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.md-cache-statfs Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.xattr-cache-list Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.nl-cache-pass-through Â  Â  Â  false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.encryption Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>encryption.master-key Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>encryption.data-key-size Â  Â  Â  Â  Â  Â  Â  Â 256 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>encryption.block-size Â  Â  Â  Â  Â  Â  Â  Â  Â  4096 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>network.frame-timeout Â  Â  Â  Â  Â  Â  Â  Â  Â  1800 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>network.ping-timeout Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 42 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>network.tcp-window-size Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>network.remote-dio Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â disable Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>client.event-threads Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 2 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>client.tcp-user-timeout Â  Â  Â  Â  Â  Â  Â  Â  0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>client.keepalive-time Â  Â  Â  Â  Â  Â  Â  Â  Â  20 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>client.keepalive-interval Â  Â  Â  Â  Â  Â  Â  2 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>client.keepalive-count Â  Â  Â  Â  Â  Â  Â  Â  Â 9 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>network.tcp-window-size Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>network.inode-lru-limit Â  Â  Â  Â  Â  Â  Â  Â  16384 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>auth.allow Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â * Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>auth.reject Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>transport.keepalive Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.allow-insecure Â  Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>server.root-squash Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.anonuid Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 65534 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.anongid Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 65534 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.statedump-path Â  Â  Â  Â  Â  Â  Â  Â  Â  /var/run/gluster Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>server.outstanding-rpc-limit Â  Â  Â  Â  Â  Â 64 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>server.ssl Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>auth.ssl-allow Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â * Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.manage-gids Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.dynamic-auth Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>client.send-gids Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>server.gid-timeout Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 300 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.own-thread Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>server.event-threads Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.tcp-user-timeout Â  Â  Â  Â  Â  Â  Â  Â  0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.keepalive-time Â  Â  Â  Â  Â  Â  Â  Â  Â  20 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>server.keepalive-interval Â  Â  Â  Â  Â  Â  Â  2 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>server.keepalive-count Â  Â  Â  Â  Â  Â  Â  Â  Â 9 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>transport.listen-backlog Â  Â  Â  Â  Â  Â  Â  Â 1024 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>ssl.own-cert Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>ssl.private-key Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>ssl.ca-list Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>ssl.crl-path Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>ssl.certificate-depth Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>ssl.cipher-list Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>ssl.dh-param Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>ssl.ec-curve Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>transport.address-family Â  Â  Â  Â  Â  Â  Â  Â inet Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.write-behind Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.read-ahead Â  Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.readdir-ahead Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.io-cache Â  Â  Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.quick-read Â  Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.open-behind Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.nl-cache Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.stat-prefetch Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.client-io-threads Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nfs.write-behind Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.nfs.read-ahead Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nfs.io-cache Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nfs.quick-read Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nfs.stat-prefetch Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nfs.io-threads Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.force-readdirp Â  Â  Â  Â  Â  Â  Â true Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.cache-invalidation Â  Â  Â  Â  Â false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.uss Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.snapshot-directory Â  Â  Â  Â  Â  Â  .snaps Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.show-snapshot-directory Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.tag-namespaces Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>network.compression Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>network.compression.window-size Â  Â  Â  Â  -15 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>network.compression.mem-level Â  Â  Â  Â  Â  8 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>network.compression.min-size Â  Â  Â  Â  Â  Â 0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>network.compression.compression-level Â  -1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>network.compression.debug Â  Â  Â  Â  Â  Â  Â  false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.default-soft-limit Â  Â  Â  Â  Â  Â  80% Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.soft-timeout Â  Â  Â  Â  Â  Â  Â  Â  Â  60 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.hard-timeout Â  Â  Â  Â  Â  Â  Â  Â  Â  5 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.alert-time Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  86400 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.quota-deem-statfs Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>geo-replication.indexing Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>geo-replication.indexing Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>geo-replication.ignore-pid-check Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>geo-replication.ignore-pid-check Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.quota Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.inode-quota Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.bitrot Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  disable Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>debug.trace Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>debug.log-history Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  no Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>debug.log-file Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â no Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>debug.exclude-ops Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>debug.include-ops Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>debug.error-gen Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>debug.error-failure Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>debug.error-number Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>debug.random-failure Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>debug.error-fops Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>nfs.disable Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.read-only Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.worm Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.worm-file-level Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.worm-files-deletable Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.default-retention-period Â  Â  Â  120 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.retention-mode Â  Â  Â  Â  Â  Â  Â  Â  relax Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.auto-commit-period Â  Â  Â  Â  Â  Â  180 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.linux-aio Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.batch-fsync-mode Â  Â  Â  Â  Â  Â  Â  Â reverse-fsync Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.batch-fsync-delay-usec Â  Â  Â  Â  Â 0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.owner-uid Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  -1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>storage.owner-gid Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  -1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>storage.node-uuid-pathinfo Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.health-check-interval Â  Â  Â  Â  Â  30 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>storage.build-pgfid Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.gfid2path Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>storage.gfid2path-separator Â  Â  Â  Â  Â  Â  : Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.reserve Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.health-check-timeout Â  Â  Â  Â  Â  Â 10 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>storage.fips-mode-rchecksum Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.force-create-mode Â  Â  Â  Â  Â  Â  Â  0000 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>storage.force-directory-mode Â  Â  Â  Â  Â  Â 0000 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>storage.create-mask Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0777 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>storage.create-directory-mask Â  Â  Â  Â  Â  0777 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>storage.max-hardlinks Â  Â  Â  Â  Â  Â  Â  Â  Â  100 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.ctime Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>storage.bd-aio Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>config.gfproxyd Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.server-quorum-type Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.server-quorum-ratio Â  Â  Â  Â  Â  Â  0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>changelog.changelog Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>changelog.changelog-dir Â  Â  Â  Â  Â  Â  Â  Â  {{ brick.path }}/.glusterfs/changelogs Â <br>changelog.encoding Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â ascii Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>changelog.rollover-time Â  Â  Â  Â  Â  Â  Â  Â  15 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>changelog.fsync-interval Â  Â  Â  Â  Â  Â  Â  Â 5 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>changelog.changelog-barrier-timeout Â  Â  120 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>changelog.capture-del-path Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.barrier Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â disable Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.barrier-timeout Â  Â  Â  Â  Â  Â  Â  Â 120 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.trash Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.trash-dir Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â .trashcan Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.trash-eliminate-path Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.trash-max-filesize Â  Â  Â  Â  Â  Â  5MB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.trash-internal-op Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.enable-shared-storage Â  Â  Â  Â  Â  disable Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.write-freq-threshold Â  Â  Â  Â  Â  Â 0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.read-freq-threshold Â  Â  Â  Â  Â  Â  0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.tier-pause Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.tier-promote-frequency Â  Â  Â  Â  Â 120 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.tier-demote-frequency Â  Â  Â  Â  Â  3600 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.watermark-hi Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 90 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.watermark-low Â  Â  Â  Â  Â  Â  Â  Â  Â  75 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.tier-mode Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  cache Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.tier-max-promote-file-size Â  Â  Â 0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.tier-max-mb Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  4000 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.tier-max-files Â  Â  Â  Â  Â  Â  Â  Â  Â 10000 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.tier-query-limit Â  Â  Â  Â  Â  Â  Â  Â 100 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.tier-compact Â  Â  Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.tier-hot-compact-frequency Â  Â  Â 604800 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.tier-cold-compact-frequency Â  Â  604800 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.ctr-enabled Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.record-counters Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.ctr-record-metadata-heat Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.ctr_link_consistency Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.ctr_lookupheal_link_timeout Â  Â 300 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.ctr_lookupheal_inode_timeout Â  300 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.ctr-sql-db-cachesize Â  Â  Â  Â  Â  12500 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.ctr-sql-db-wal-autocheckpoint Â 25000 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.selinux Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>locks.trace Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>locks.mandatory-locking Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.disperse-self-heal-daemon Â  Â  Â  enable Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.quorum-reads Â  Â  Â  Â  Â  Â  Â  Â  Â  Â no Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>client.bind-insecure Â  Â  Â  Â  Â  Â  Â  Â  Â  Â (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.shard Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.shard-block-size Â  Â  Â  Â  Â  Â  Â  64MB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.shard-lru-limit Â  Â  Â  Â  Â  Â  Â  Â 16384 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.shard-deletion-rate Â  Â  Â  Â  Â  Â 100 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.scrub-throttle Â  Â  Â  Â  Â  Â  Â  Â  lazy Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.scrub-freq Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  biweekly Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.scrub Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.expiry-time Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 120 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.cache-invalidation Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.cache-invalidation-timeout Â  Â  60 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.leases Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.lease-lock-recall-timeout Â  Â  Â 60 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>disperse.background-heals Â  Â  Â  Â  Â  Â  Â  8 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>disperse.heal-wait-qlength Â  Â  Â  Â  Â  Â  Â 128 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.heal-timeout Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 600 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>dht.force-readdirp Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>disperse.read-policy Â  Â  Â  Â  Â  Â  Â  Â  Â  Â gfid-hash Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.shd-max-threads Â  Â  Â  Â  Â  Â  Â  Â  1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.shd-wait-qlength Â  Â  Â  Â  Â  Â  Â  Â 1024 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.locking-scheme Â  Â  Â  Â  Â  Â  Â  Â  Â full Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.granular-entry-heal Â  Â  Â  Â  Â  Â  no Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.locks-revocation-secs Â  Â  Â  Â  Â 0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.locks-revocation-clear-all Â  Â  false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.locks-revocation-max-blocked Â  0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.locks-monkey-unlocking Â  Â  Â  Â  false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.locks-notify-contention Â  Â  Â  Â no Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.locks-notify-contention-delay Â 5 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>disperse.shd-max-threads Â  Â  Â  Â  Â  Â  Â  Â 1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>disperse.shd-wait-qlength Â  Â  Â  Â  Â  Â  Â  1024 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>disperse.cpu-extensions Â  Â  Â  Â  Â  Â  Â  Â  auto Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>disperse.self-heal-window-size Â  Â  Â  Â  Â 1 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.use-compound-fops Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.parallel-readdir Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.rda-request-size Â  Â  Â  Â  Â  Â 131072 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.rda-low-wmark Â  Â  Â  Â  Â  Â  Â  4096 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.rda-high-wmark Â  Â  Â  Â  Â  Â  Â 128KB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.rda-cache-limit Â  Â  Â  Â  Â  Â  10MB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.nl-cache-positive-entry Â  Â  false Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>performance.nl-cache-limit Â  Â  Â  Â  Â  Â  Â 10MB Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>performance.nl-cache-timeout Â  Â  Â  Â  Â  Â 60 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>cluster.brick-multiplex Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.max-bricks-per-process Â  Â  Â  Â  Â 0 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>disperse.optimistic-change-log Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>disperse.stripe-cache Â  Â  Â  Â  Â  Â  Â  Â  Â  4 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.halo-enabled Â  Â  Â  Â  Â  Â  Â  Â  Â  Â False Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.halo-shd-max-latency Â  Â  Â  Â  Â  Â 99999 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.halo-nfsd-max-latency Â  Â  Â  Â  Â  5 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.halo-max-latency Â  Â  Â  Â  Â  Â  Â  Â 5 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.halo-max-replicas Â  Â  Â  Â  Â  Â  Â  99999 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.halo-min-replicas Â  Â  Â  Â  Â  Â  Â  2 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>cluster.daemon-log-level Â  Â  Â  Â  Â  Â  Â  Â INFO Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>debug.delay-gen Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>delay-gen.delay-percentage Â  Â  Â  Â  Â  Â  Â 10% Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>delay-gen.delay-duration Â  Â  Â  Â  Â  Â  Â  Â 100000 Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>delay-gen.enable Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>disperse.parallel-writes Â  Â  Â  Â  Â  Â  Â  Â on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.sdfs Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>features.cloudsync Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>features.utime Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â off Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  <br>ctime.noatime Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  on Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â <br>feature.cloudsync-storetype Â  Â  Â  Â  Â  Â  (null) Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â Â  <br></div><div><br></div><div>Thanks again.</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, 25 Dec 2019 at 05:51, Strahil &lt;<a href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><p dir="ltr">Hi David,</p>
<p dir="ltr">On Dec 24, 2019 02:47, David Cunningham &lt;<a href="mailto:dcunningham@voisonics.com" target="_blank">dcunningham@voisonics.com</a>&gt; wrote:<br>
&gt;<br>
&gt; Hello,<br>
&gt;<br>
&gt; In testing we found that actually the GFS client having access to all 3 nodes made no difference to performance. Perhaps that&#39;s because the 3rd node that wasn&#39;t accessible from the client before was the arbiter node?<br>
It makes sense, as no data is being generated towards the arbiter.<br>
&gt; Presumably we shouldn&#39;t have an arbiter node listed under backupvolfile-server when mounting the filesystem? Since it doesn&#39;t store all the data surely it can&#39;t be used to serve the data.</p>
<p dir="ltr">I have my arbiter defined as last backup and no issues so far. At least the admin can easily identify the bricks from the mount options.</p>
<p dir="ltr">&gt; We did have direct-io-mode=disable already as well, so that wasn&#39;t a factor in the performance problems.</p>
<p dir="ltr">Have you checked if the client vedsion ia not too old.<br>
Also you can check the cluster&#39;s  operation cersion:<br>
# gluster volume get all cluster.max-op-version<br>
# gluster volume get all cluster.op-version</p>
<p dir="ltr">Cluster&#39;s op version should be at max-op-version.</p>
<p dir="ltr">In my mind come 2  options:<br>
A) Upgrade to latest GLUSTER v6 or even v7 ( I know it won&#39;t be easy) and then set the op version to highest possible.<br>
# gluster volume get all cluster.max-op-version<br>
# gluster volume get all cluster.op-version</p>
<p dir="ltr">B)  Deploy a NFS Ganesha server and connect the client over NFS v4.2 (and control the parallel connections from Ganesha).</p>
<p dir="ltr">Can you provide your  Gluster volume&#39;s  options?<br>
&#39;gluster volume get &lt;VOLNAME&gt;  all&#39;</p>
<p dir="ltr">&gt; Thanks again for any advice.<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Mon, 23 Dec 2019 at 13:09, David Cunningham &lt;<a href="mailto:dcunningham@voisonics.com" target="_blank">dcunningham@voisonics.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi Strahil,<br>
&gt;&gt;<br>
&gt;&gt; Thanks for that. We do have one backup server specified, but will add the second backup as well.<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Sat, 21 Dec 2019 at 11:26, Strahil &lt;<a href="mailto:hunter86_bg@yahoo.com" target="_blank">hunter86_bg@yahoo.com</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Hi David,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Also consider using the  mount option to specify backup server via &#39;backupvolfile-server=server2:server3&#39; (you can define more but I don&#39;t thing replica volumes  greater that 3 are usefull (maybe  in some special cases).<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; In such way, when the primary is lost, your client can reach a backup one without disruption.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; P.S.: Client may &#39;hang&#39; - if the primary server got rebooted ungracefully - as the communication must timeout before FUSE addresses the next server. There is a special script for  killing gluster processes in &#39;/usr/share/gluster/scripts&#39; which can be used  for  setting up a systemd service to do that for you on shutdown.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Best Regards,<br>
&gt;&gt;&gt; Strahil Nikolov<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Dec 20, 2019 23:49, David Cunningham &lt;<a href="mailto:dcunningham@voisonics.com" target="_blank">dcunningham@voisonics.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Hi Stahil,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Ah, that is an important point. One of the nodes is not accessible from the client, and we assumed that it only needed to reach the GFS node that was mounted so didn&#39;t think anything of it.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; We will try making all nodes accessible, as well as &quot;direct-io-mode=disable&quot;.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Thank you.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; On Sat, 21 Dec 2019 at 10:29, Strahil Nikolov &lt;<a href="mailto:hunter86_bg@yahoo.com" target="_blank">hunter86_bg@yahoo.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Actually I haven&#39;t clarified myself.<br>
&gt;&gt;&gt;&gt;&gt; FUSE mounts on the client side is connecting directly to all bricks consisted of the volume.<br>
&gt;&gt;&gt;&gt;&gt; If for some reason (bad routing, firewall blocked) there could be cases where the client can reach 2 out of 3 bricks and this can constantly cause healing to happen (as one of the bricks is never updated) which will degrade the performance and cause excessive network usage.<br>
&gt;&gt;&gt;&gt;&gt; As your attachment is from one of the gluster nodes, this could be the case.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Best Regards,<br>
&gt;&gt;&gt;&gt;&gt; Strahil Nikolov<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Ð’ Ð¿ÐµÑ‚ък, 20 Ð´ÐµÐºÐµÐ¼Ð²Ñ€Ð¸ 2019 Ð³., 01:49:56 Ñ‡. Ð“ринуич+2, David Cunningham &lt;<a href="mailto:dcunningham@voisonics.com" target="_blank">dcunningham@voisonics.com</a>&gt; Ð½Ð°Ð¿Ð¸ÑÐ°:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Hi Strahil,<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; The chart attached to my original email is taken from the GFS server.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; I&#39;m not sure what you mean by accessing all bricks simultaneously. We&#39;ve mounted it from the client like this:<br>
&gt;&gt;&gt;&gt;&gt; gfs1:/gvol0 /mnt/glusterfs/ glusterfs defaults,direct-io-mode=disable,_netdev,backupvolfile-server=gfs2,fetch-attempts=10 0 0<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Should we do something different to access all bricks simultaneously?<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Thanks for your help!<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; On Fri, 20 Dec 2019 at 11:47, Strahil Nikolov &lt;<a href="mailto:hunter86_bg@yahoo.com" target="_blank">hunter86_bg@yahoo.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; I&#39;m not sure if you did measure the traffic from client side (tcpdump on a client machine) or from Server side.<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; In both cases , please verify that the client accesses all bricks simultaneously, as this can cause unnecessary heals.<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; Have you thought about upgrading to v6? There are some enhancements in v6 which could be beneficial.<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; Yet, it is indeed strange that so much traffic is generated with FUSE.<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; Another aproach is to test with NFSGanesha which suports pNFS and can natively speak with Gluster, which cant bring you closer to the previous setup and also provide some extra performance.<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; Best Regards,<br>
&gt;&gt;&gt;&gt;&gt;&gt; Strahil Nikolov<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; -- <br>
&gt;&gt; David Cunningham, Voisonics Limited<br>
&gt;&gt;<a href="http://voisonics.com" target="_blank"> http://voisonics.com</a>/<br>
&gt;&gt; USA: +1 213 221 1092<br>
&gt;&gt; New Zealand: +64 (0)28 2558 3782<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; -- <br>
&gt; David Cunningham, Voisonics Limited<br>
&gt;<a href="http://voisonics.com" target="_blank"> http://voisonics.com</a>/<br>
&gt; USA: +1 213 221 1092<br>
&gt; New Zealand: +64 (0)28 2558 3782</p>
<p dir="ltr">Best Regards,<br>
Strahil Nikolov</p>
</blockquote></div><br clear="all"><br>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div>David Cunningham, Voisonics Limited<br><a href="http://voisonics.com/" target="_blank">http://voisonics.com/</a><br>USA: +1 213 221 1092<br>New Zealand: +64 (0)28 2558 3782</div></div></div></div></div></div></div></div></div></div></div>